중국 인공지능(AI) 스타트업 딥시크가 신모델 출시와 더불어 API(응용 프로그램 인터페이스) 호출 비용을 50% 이상 낮췄다. '중국판 엔비디아' 캠브리콘, 화웨이 등 AI 칩 업체는 즉시 딥시크 최신 모델을 지원하는 추론엔진의 소스코드를 공개하는 등 중국 AI 기업들의 손발이 척척 맞는 모습이다.
/로이터=뉴스130일 중국증권보 등 중국 언론은 전날 저녁 딥시크가 '딥시크(Deepseek)-V.3.2-Exp'을 출시했다고 일제히 보도했다. 이전 버전인 V3.1-Terminus를 기반으로 한 실험 버전이며 딥시크가 개발한 '스파스 어텐션(희소주의력·Sparse Attention)' 기술을 이용해, 장문 입력에서도 특정 토큰만 처리하는 방식으로 서버 부하를 최소화했다.
딥시크는 새로운 모델의 운영 비용이 크게 줄어들면서 "딥시크 API 호출 비용을 50% 이상 낮춘다"고 밝혔다.
같은 날 AI 칩 업체 캠브리콘은 딥시크의 최신 모델 'V3.2-Exp'과 호환되는 대형언어모델(LLM) 추론 엔진 'vLLM-MLU'의 소스코드를 오픈소스로 공개했다고 밝혔다. 캠브리콘은 LLM 소프트웨어 생태계 구축 기술을 축적해왔기 때문에 딥시크가 내놓은 최신 모델에 대해, 즉각적인 최적화를 실현할 수 있었다고 밝혔다.
화웨이는 AI 칩 어센드(Ascend)가 'vLLM/SGLang' 등 추론 프레임워크를 기반으로 딥시크의 'V3.2-Exp'에 대한 호환을 완료했으며 개발자 대상 소스코드를 오픈소스로 공개했다고 밝혔다.
하이곤정보도 자사 DCU가 'V3.2-Exp'에 대한 무결점 호환 및 최적화를 달성했다고 발표하는 등 중국 주요 AI 칩 업체도 모두 딥스키의 최신 모델 발표 당일 호환된 시스템을 내놓았다.
중국 AI 업계에서는 이번 딥시크의 최신 모델 발표에 이은 캠브리콘, 화웨이 등의 즉각적인 호환 시스템 발표가 중국 AI 공급사슬이 긴밀하게 협력하고 있음을 보여준다고 평가했다. 딥시크의 'V3.2-Exp' 발표 이전에 캠브리콘 등이 딥시크와 기술 측면에서 소통하며 호환 모델 개발을 진행했음을 드러낸다.
한편 딥시크는 최근 모델 업데이트를 지속적으로 진행하고 있다. 지난 8월21일 '딥시크 V3.1'을 발표했으며 9월22일 'V3.1-Terminus' 버전으로 업데이트했다. 7일 만인 29일 다시 'V3.2-Exp' 버전을 내놓은 것이다.