뉴스

[오픈소스 AI] DeepSeek-V3.1 공개|중국의 하이브리드 추론 LLM

2025-08-26
AI 뉴스
#DeepSeek V3.1#DeepSeek#중국 AI 모델#오픈소스 AI#하이브리드 추론#LLM 성능 비교#대형 언어 모델#AI 벤치마크

효율성과 성능을 동시에 잡은 DeepSeek-V3.1

최근 글로벌 AI 시장은 OpenAI, Anthropic, Google 등 주요 기업뿐 아니라 중국 오픈소스 프로젝트들의 약진으로 그 어느 때보다 치열한 경쟁이 펼쳐지고 있습니다. 특히 대형 언어 모델(LLM)은 단순한 대화 능력을 넘어, 복잡한 추론·코딩·번역·도구 활용까지 아우르며 점점 더 고도화되고 있습니다.

이러한 흐름 속에서 DeepSeek는 꾸준히 연구 성과를 공개하며 주목받아 왔습니다. 그리고 이번에 새롭게 업그레이드 된 DeepSeek-V3.1 모델을 공개했습니다. 이 모델은 하나의 아키텍처로 Thinking 모드와 Non-Thinking 모드를 동시에 지원하는 하이브리드 추론 구조를 도입하여, 효율성과 성능을 모두 강화한 것이 특징입니다.



🔍 DeepSeek-V3.1 란

DeepSeek-V3.1은 중국의 AI 스타트업 DeepSeek이 2025년 8월 19일 공개한 최신 언어 모델로, 최신 기술을 통해 성능과 효율을 동시에 높인 것이 가장 큰 특징입니다.

이 모델은 기존의 단일 추론 방식에서 벗어나, Thinking 모드(깊은 추론과 복잡한 문제 해결에 적합)Non-Thinking 모드(빠른 응답과 단순 작업 처리에 최적화) 를 하나의 아키텍처에서 지원하는 하이브리드 추론 구조(hybrid inference structure) 를 도입했습니다. 이를 통해 사용자는 작업의 성격에 따라 보다 유연하게 모드를 선택할 수 있으며, 성능과 속도의 균형을 동시에 확보할 수 있습니다.

즉, DeepSeek-V3.1은 단순한 성능 향상을 넘어, 복잡한 추론과 빠른 실시간 응답을 모두 아우르는 범용 AI 모델로 자리매김하고 있습니다.


[모델 정보 요약]

항목설명
모델명DeepSeek-V3.1
파라미터 구성671B 총 / 37B 활성화
개발사DeepSeek
출시일2025년 8월 19일
컨텍스트 길이최대 128K 토큰
특징- 대규모 MoE 아키텍처
- 하이브리드 추론 모드(Thinking·Non-Thinking)
- 도구 호출 최적화
- FP8 기반 고효율 연산
라이선스MIT License (상업적 사용 가능)

✨ 주요 특징

1) 하이브리드 추론 모드

  • 하나의 모델로 Thinking 모드Non-Thinking 모드 모두 활용 가능

2) 향상된 도구 호출 능력 (Tool Calling)

  • 사후 훈련(post-training optimization) 을 통해 도구 활용 및 에이전트 기반 작업에서 성능 크게 향상

3) 더 빠른 응답 속도

  • Thinking 모드 기준으로 이전 버전(V3, R1-0528 등) 대비 동일한 답변 품질을 유지하면서 처리 속도 향상

4) 대규모 컨텍스트 확장

  • V3 기반 체크포인트를 사용, 두 단계에 걸친 장문 컨텍스트 확장
    • 32K 확장 단계: 630B 토큰 학습
    • 128K 확장 단계: 209B 토큰 학습
  • 따라서 최대 128,000 토큰까지 문맥을 처리할 수 있는 대규모 컨텍스트 길이 가능

5) 대용량 파라미터 구조

  • 총 파라미터: 671B, 활성화 파라미터: 37B, 컨텍스트 길이: 128K

6) 고효율 혼합 정밀도(FP8) 포맷

  • UE8M0 FP8 스케일 데이터 포맷을 활용하여 마이크로스케일링 환경에서의 호환성을 확보

📊 벤치마크 성능

DeepSeek-V3.1은 다양한 벤치마크 지표에서 전반적으로 높은 성능을 보여주었습니다. 특히 Thinking 모드에서는 복잡한 추론과 수학 문제 해결에서 두드러진 향상을 기록했으며, 코딩 관련 평가 지표에서도 이전 버전 대비 뚜렷한 개선을 확인할 수 있습니다.

아래 표는 주요 지표별 성능을 정리한 것입니다.

구분항목 (Benchmark)DeepSeek V3.1
Non-Thinking
DeepSeek V3.1
Thinking
DeepSeek V3
0324
DeepSeek R1
0528
일반평가지표MMLU-Redux (EM)91.893.790.393.4
MMLU-Pro (EM)83.784.981.285.0
GPQA-Diamond74.980.168.481.0
코딩평가지표LiveCodeBench56.474.843.073.3
Aider-Polyglot68.476.355.171.6
SWE Verified66.0-45.444.6
수학평가지표AIME 202549.888.451.587.5
HMMT 202533.584.229.279.4

[벤치마크 성능 지표]

  • MMLU-Redux (EM) : 여러 학문 분야의 문제를 통해 모델의 전반적인 일반 지식 이해력을 평가하는 지표
  • MMLU-Pro (EM) : 난이도가 높아진 확장판으로, 복잡한 문제 해결 능력과 심화 지식 활용 능력을 측정
  • GPQA-Diamond : 전문가 수준의 고난도 질문에 대한 정확한 추론 능력을 검증하는 지표
  • LiveCodeBench : 실제 프로그래밍 문제를 해결하도록 하여, 코딩 실무 수행 능력을 평가
  • Aider-Polyglot : 다양한 프로그래밍 언어를 다루며, 다언어 코드 작성 및 정확도를 측정
  • SWE Verified : 소프트웨어 엔지니어링 환경에서의 문제 해결을 평가하는 지표로, 코드 품질과 안정성을 검증
  • AIME 2025 : 미국 수학 경시대회(AIME) 문제를 기반으로, 고급 수학 문제 해결 능력을 측정
  • HMMT 2025 : 하버드-매사추세츠 공과대학 수학 경시대회(HMMT) 문제를 기반으로, 대학 수준의 심화 수학적 추론 능력을 평가

📜 라이선스 정보

DeepSeek V3.1MIT 라이선스로 공개된 모델입니다. MIT 라이선스는 가장 개방적이고 자유도가 높은 오픈소스 라이선스 중 하나로, 사용자는 모델을 연구 목적은 물론 상업적 용도로도 자유롭게 활용할 수 있습니다.

이 말은 곧 기업, 스타트업, 개인 개발자 모두가 별도의 제약 없이 DeepSeek V3.1을 서비스나 제품에 직접 통합할 수 있음을 의미합니다. 예를 들어,

  • 기업은 자사 애플리케이션에 모델을 탑재하여 AI 기능을 상업적으로 판매할 수 있고,
  • 스타트업은 빠르게 프로토타입을 제작해 상업 서비스로 확장할 수 있으며,
  • 연구자는 자유롭게 모델을 개조·재배포하여 새로운 연구 성과를 만들어낼 수 있습니다.

단, MIT 라이선스 조건에 따라 저작권 및 라이선스 고지 문구를 유지해야 하지만, 그 외에는 사실상 제약이 거의 없습니다.


💻 DeepSeek V3.1 사용하기 (웹 플랫폼)

DeepSeek V3.1은 현재 공식 허깅페이스를 통해 공개되어 있지만, 모델 전체 용량이 약 700GB에 이를 만큼 매우 거대하기 때문에 개인용 PC에서 직접 실행하기는 현실적으로 쉽지 않습니다.

대신 DeepSeek은 누구나 편리하게 모델을 체험할 수 있도록 자사 플랫폼을 운영하고 있습니다. 사용자는 별도의 설치 과정 없이 웹 환경에서 바로 질문을 입력하고, DeepSeek V3.1의 응답을 직접 확인할 수 있습니다. 이를 통해 방대한 파라미터를 가진 모델의 강력한 성능을 손쉽게 경험할 수 있으며, 연구 목적은 물론 일반 사용자도 AI의 최신 능력을 가까이에서 접할 수 있습니다.

DeepSeek 플랫폼

출처: DeepSeek 플랫폼 (클릭시 이미지 확대)



✅ 마무리하며

DeepSeek V3.1은 단순히 성능이 향상된 차세대 언어 모델을 넘어, Thinking·Non-Thinking 하이브리드 추론 구조라는 새로운 패러다임을 제시한 모델입니다. 방대한 671B 파라미터와 128K 컨텍스트 길이를 바탕으로 복잡한 추론, 코딩, 수학 문제 해결 등 다양한 분야에서 강력한 성능을 보여주고 있으며, MIT 라이선스 기반으로 누구나 자유롭게 활용할 수 있다는 점에서도 의미가 큽니다.

비록 모델 자체가 워낙 거대해 개인 PC에서 직접 실행하기는 쉽지 않지만, DeepSeek이 제공하는 플랫폼을 통해 누구나 손쉽게 최신 AI의 가능성을 체험할 수 있습니다. 앞으로 DeepSeek V3.1이 연구자, 개발자, 그리고 실제 서비스 환경에서 어떤 방식으로 활용될지 주목할 만합니다.

감사합니다. 😊



[참고 링크]

🔗 DeepSeek-V3.1 허깅페이스 : https://huggingface.co/deepseek-ai/DeepSeek-V3.1
🔗 DeepSeek 플랫폼 : https://chat.deepseek.com/

작성자 : AIMIZING.