Claude Pro 월 $20, ChatGPT Plus 월 $20씩(한국 결제 시 환율·VAT 포함 약 28,000~30,000원) 매달 내고 계신가요? 그 비용이 일주일 만에 1/10 가까이 내려갔습니다. DeepSeek-V4-Pro는 지난 4월 24일 출시된 1.6조 파라미터 AI 모델로, 최고급 폐쇄형 모델과 동등한 성능을 MIT 라이선스로 공개했으며, API 가격은 정가 대비 75% 할인된 $0.435/1M 토큰입니다. 코딩 작업을 중심으로 하는 개발팀이라면 이 모델로 인한 비용 절감이 얼마나 파괴적일 수 있는지 지금부터 확인해보겠습니다.
1.6조 파라미터, MIT 라이선스로 나온 까닭
DeepSeek-V4-Pro는 지난 4월 24일 공식 발표된 최신 모델입니다. 총 파라미터는 1.6조에 달하지만, 실제 사용할 때는 활성 파라미터 490억만 작동하는 MoE(Mixture of Experts) 구조를 채택했습니다. 이러한 설계 덕분에 컴퓨팅 파워는 이전 버전인 V3.2 대비 27%만 소비하면서도 성능을 대폭 향상시켰습니다.
특히 주목할 점은 이 모델이 MIT 라이선스로 완전히 공개되었다는 사실입니다. 즉, 가중치를 HuggingFace에서 직접 다운로드할 수 있으므로 자사 서버에서 직접 구동 가능하며, 상업용으로도 자유롭게 활용할 수 있습니다. API를 통한 클라우드 이용도 가능한데, 여기서 가장 흥미로운 부분이 가격입니다. 정가는 1M 토큰당 $1.74지만, 현재 진행 중인 촉진 프로모션으로 $0.435로 이용할 수 있으며, 이 할인은 2026년 5월 31일까지 유지됩니다.
화웨이 Ascend, 그리고 중국의 AI 자립
V4의 출시가 미뤄진 배경에는 기술적 도전 외에도 중요한 지정학적 맥락이 있습니다. 이 모델은 화웨이의 Ascend 칩에 최적화된 DeepSeek 첫 모델이기 때문입니다. MIT Technology Review의 분석에 따르면, “V4는 화웨이 어센드 같은 국산 중국 칩에 최적화된 딥시크의 첫 모델로, 중국 자체 AI 산업이 미국 엔비디아에 대한 의존도를 낮출 수 있는지를 보여주는 시험대가 됐습니다.”
DeepSeek은 이전까지 엔비디아 GPU에 주로 의존했지만, 미국의 수출 규제로 인해 고급 칩 접근이 제한되자 국산 칩에 최적화된 모델을 만드는 데 집중했습니다. V3.2까지는 이러한 최적화가 완전하지 않았지만, V4에서 드디어 실현된 것입니다. 메모리 효율도 인상적인데, V3.2 대비 KV 캐시 메모리 사용량을 10%까지 줄였으므로, 화웨이의 자체 칩 환경에서도 충분히 고성능으로 동작할 수 있게 설계되었습니다.
이는 단순한 기술 발전을 넘어 중국의 AI 산업 자립이 현실화되고 있다는 신호입니다. 엔비디아 의존도를 낮춘다는 것은 향후 칩 공급 이슈에 덜 취약해진다는 의미이며, 이는 Meta의 자체 칩 MTIA 4종 공개와 같은 맥락으로 글로벌 AI 인프라 다변화의 한 축을 차지합니다. V3.2에서 V4로의 점프가 6개월 사이에 이루어진 것도 이러한 지정학적 압력이 R&D를 얼마나 가속화했는지를 보여줍니다.
1.6T 파라미터를 어떻게 효율적으로 만들었나
DeepSeek-V4-Pro의 가장 주목할 부분은 파라미터 규모와 실제 성능의 불일치입니다. 총 1.6조 파라미터 중 활성화되는 파라미터는 490억(49B) 수준인데, 이는 혼합 전문가(Mixture of Experts, MoE) 구조를 통해 가능했습니다.
MoE 방식은 질문 특성에 따라 필요한 전문가 모듈만 활성화하고 나머지는 대기 상태로 두는 방식입니다. 예를 들어 코딩 질문에는 “코드 전문가” 모듈만, 창의 작문에는 “창의 전문가” 모듈만 깨워서 메모리와 연산량을 대폭 줄이는 원리입니다.
여기에 더해 V4는 하이브리드 어텐션 메커니즘을 도입했습니다. DeepSeek이 자체 개발한 DSA(DeepSeek Sparse Attention)와 토큰 단위 압축(Token-wise compression)을 결합한 기술로, 이전 V3.2 대비 컴퓨팅 파워는 27%로 절감하면서도 성능 손실을 최소화했습니다. 메모리 사용량(KV 캐시)은 더욱 극적으로 10%까지 줄어들었습니다.
또 다른 강점은 1백만 토큰(1M) 컨텍스트 길이입니다. 이는 Claude 모델에 필적하는 수준으로, 한 번의 API 호출로 매우 긴 문서나 대규모 코드 리포지토리를 한 번에 분석할 수 있다는 의미입니다. 게다가 MIT 라이선스를 채택해 상업적 사용과 개인 라이선스 위반 우려 없이 로컬 배포가 가능합니다.
실전 벤치마크 — Opus 4.6과 정말 동등한가
수치로 비교하면 V4-Pro의 성능이 명확합니다.
| 벤치마크 | V4-Pro | Opus 4.6 | 차이 |
|---|---|---|---|
| SWE-Bench Verified | 80.6% | 80.8% | -0.2%p (동등) |
| MMLU-Pro | 87.5% | — | — |
| LiveCodeBench | 93.5% | — | — |
코딩 능력을 가늠하는 가장 신뢰할만한 지표인 SWE-Bench Verified에서 V4-Pro는 80.6%로 Opus 4.6의 80.8%와 거의 동일합니다. 실무 소프트웨어 엔지니어링 작업(자동 버그 수정, 기능 추가, 테스트 코드 작성 등)에서 이 정도면 “동등하다”고 봐도 무리가 없습니다.
더 인상적인 부분은 Codeforces 경쟁 프로그래밍 점수로, V4-Pro는 3,206점을 기록했습니다. 이는 GPT-5.4(3,168점)를 앞질렀습니다. 즉, 알고리즘 문제 해결 능력에서는 OpenAI의 최신 모델을 능가한다는 뜻입니다.
MMLU-Pro(광범위한 지식 벤치마크) 87.5%는 대규모 언어 모델의 일반 능력을 보여주는 지표이며, LiveCodeBench(코드 생성·수정) 93.5%는 실제 코드 작업에서 거의 완벽에 가까운 수행도를 의미합니다.

V3.2에서 V4로 — 6개월 만의 성능 점프
V3.2에서 V4로 업그레이드되면서 얼마나 큰 진전이 있었는지 보면, 이 6개월간 DeepSeek의 연구 속도가 얼마나 빨랐는지 알 수 있습니다.
| 벤치마크 | V3.2 | V4 | 상승폭 |
|---|---|---|---|
| HumanEval | 62.8% | 76.8% | +14.0%p |
| SimpleQA | 28.3% | 55.2% | +26.9%p |
| LongBench-V2 | 40.2% | 51.5% | +11.3%p |
특히 SimpleQA(팩트 기반 질문 답변) +26.9%p는 눈에 띕니다. 거의 2배에 가까운 성능 향상입니다. 이는 V4가 환각(hallucination)을 크게 줄이고 신뢰할만한 정보 추출 능력이 대폭 개선됐다는 의미입니다.
HumanEval +14.0%p는 기본 코드 생성 능력의 폭넓은 향상을 보여주고, LongBench-V2 +11.3%p는 긴 문맥 처리 능력이 의미 있게 개선됐음을 입증합니다.
또한 앞서 언급한 FLOPs 27%, KV 캐시 10% 절감은 단순 성능 향상이 아니라, 같은 하드웨어에서 더 큰 배치 크기로 처리 가능해졌다는 뜻입니다. 이는 API 운영자 입장에서는 처리량(throughput)을 크게 늘릴 수 있다는 의미이고, 최종 사용자 입장에서는 응답 속도와 가격 경쟁력으로 이어집니다.
개발자 커뮤니티의 반응
딥시크 V4-Pro의 출시는 개발자 커뮤니티에서 즉각적인 반응을 불러일으켰습니다. 오픈소스 LLM 커뮤니티인 Reddit r/LocalLLaMA에서는 “Claude Opus의 대체제로 충분하다”는 평가가 이어졌으며, 비용 민감도가 높은 개발자들이 주목하는 Hacker News에서는 “GPT-4로는 경제성이 맞지 않던 규모의 코드 리뷰와 자동 테스트도 V4-Pro로는 저렴하게 운영 가능하다”는 의견이 지배적입니다.
한국에서도 AI타임스, 재경일보, 오마이뉴스 등이 “화웨이 추론 칩에 최적화된 중국 반도체 자립의 신호”로 V4-Pro 출시를 보도하며, 국내 개발자 커뮤니티에서도 실무 도입 가능성을 타진하는 움직임이 활발합니다.
남은 의문점과 한계
다만 V4-Pro의 매력은 현재 진행 중인 75% 할인(정가 $1.74 → 할인가 $0.435/1M 토큰)에 크게 의존하고 있습니다. 할인은 2026년 5월 31일 15:59 UTC(한국 시각 6월 1일 00:59)까지만 유효하며, 할인 마감 후 정가 수준으로 올라갈 경우 경제성 우위가 상당히 감소할 것으로 예상됩니다.
또한 V4-Pro가 화웨이의 Ascend 칩 최적화 첫 모델이라는 점은 기술적 성과인 동시에 지정학적 리스크를 함의합니다. 미국의 대중국 반도체 제재가 강화될 경우 Ascend 칩의 가용성 자체가 위협받을 수 있으며, 이는 곧 V4-Pro의 운영 기반 축소를 의미합니다.
마지막으로 1M 토큰(약 75만 단어)의 초장문 컨텍스트 윈도우를 V4-Pro가 제공하지만, 실무에서 RAG(Retrieval-Augmented Generation)와 같은 외부 정보 검색 기법을 함께 쓰는 경우 1M 컨텍스트의 실효성이 과대평가될 수 있다는 지적도 있습니다.
한국에서 API로는 쓸 수 없는 이유 — 데이터 거버넌스
V4-Pro의 진짜 매력은 MIT 라이선스 오픈웨이트라는 점이지만, 한국 기업이 단순히 DeepSeek 공식 API에 연결해서 쓰는 시나리오에는 명확한 함정이 있습니다. 모든 입력 프롬프트가 중국 항저우의 DeepSeek 서버로 전송되고, 다시 ByteDance 자회사인 Volcano Engine으로 이전되어 모델 학습에 재사용됩니다. 이는 DeepSeek 공식 개인정보처리방침에 명시된 사실이며, 옵트아웃 설정을 끄지 않는 한 기본값으로 활성화됩니다.
여기에 더 구조적인 문제가 있습니다. DeepSeek은 중국 기업이므로 중국 사이버보안법(2017)과 데이터보안법(2021)을 따라야 하며, 사이버보안법 제37조는 국가안전부와 공안기관에 데이터 제출 요구권을 명시합니다. 한국 기업이 V4-Pro API에 보낸 프롬프트는 법적으로 중국 정부가 접근 가능한 자료가 된다는 의미입니다.
이 위험은 이미 현실이 됐습니다. 2025년 4월, 한국 개인정보보호위원회는 DeepSeek을 점검한 결과 국내 이용자 프롬프트가 중국으로 무단 이전됐다고 지적하고 ‘즉각 파기’를 권고했습니다. 같은 시기 미국 NASA·해군·국방부는 직원 사용을 금지했고, 이탈리아는 앱 스토어 자체를 차단했습니다. 한국 기업이 V4-Pro API를 도입할 경우 PIPA(개인정보보호법) 국경 간 전송 규제 위반 가능성이 높으며, 위반 시 과태료는 전 세계 연간 매출의 최대 3%까지 부과될 수 있습니다.
그렇다면 V4-Pro는 한국에서 쓸 수 없는 모델일까요? 공식 API는 사실상 못 쓰지만, 자체 호스팅은 완전히 다른 이야기입니다. MIT 라이선스 가중치를 HuggingFace에서 다운로드해 자사 서버에 배포하면 입력 데이터가 외부로 나가지 않습니다. 사용자 프롬프트는 사내 인프라에만 머물고, 중국 정부 접근도 PIPA 위반도 발생하지 않습니다. MIT 라이선스는 상업용 배포·파인튜닝·재배포까지 모두 허용하므로, 한국 기업이 V4-Pro 가중치를 자사 SaaS 제품에 통합해도 라이선스·법적 문제가 없습니다.
이 차이가 V4-Pro의 진짜 가치를 만듭니다. 가중치 자체는 안전하지만 API로 쓰면 중국법 아래 놓인다는 역설을 V4-Pro가 가장 선명하게 드러냅니다. “오픈소스 AI는 안전하다”는 표현이 반은 맞고 반은 틀린 이유가 여기에 있습니다.
한국 개발자와 스타트업에게 주는 시사점
한국의 AI 개발자와 스타트업에게 V4-Pro의 등장은 몇 가지 실질적 의미를 갖습니다. 첫째, MIT 라이선스 오픈웨이트 모델이므로 사내 인프라에 직접 배포하면 데이터가 외부로 나가지 않으면서도 Claude Opus 급 코딩 능력을 사내 시스템에 적용할 수 있습니다. 둘째, Cursor·Cline 같은 코드 에이전트도 자체 호스팅된 V4-Pro 엔드포인트에 연결해 사용할 수 있어, API 비용과 데이터 위험을 동시에 줄일 수 있습니다.
다만 자체 배포를 선택할 경우 화웨이 Ascend 칩 또는 충분한 GPU 리소스 확보 등 추가 기술 인프라 비용이 발생하며, 1.6T 모델을 안정적으로 돌리려면 수억 원대의 하드웨어 투자가 필요하다는 점이 단점입니다. 학습 데이터 출처·편향성에 대한 추가 검증도 별도로 진행되어야 합니다.
오픈 SOTA의 한 분기점
딥시크 V4-Pro의 출시는 단순한 “또 다른 경쟁 모델”이 아니라 오픈소스 대규모 언어 모델의 SOTA(State-of-the-Art)가 한 분기점을 지나감을 상징합니다. Claude Opus 수준의 성능을 정가 1/10, 할인가 1/30의 비용으로 제공한다는 것은 AI 모델의 상용화 경제학 자체를 재정의하는 신호입니다. 다만 할인 마감 후 가격, 화웨이 칩 의존도, 데이터 거버넌스 등 구조적 불확실성이 남아 있어, 한국 개발자와 기업은 V4-Pro의 기술 성과를 인정하되 실무 도입 시에는 비용-편익, 지정학 리스크, 데이터 규제 환경을 종합적으로 검토한 후 선택할 필요가 있습니다.