中 AI 스타트업 딥시크에 서방 언론 일제히 주목
일부 성능 테스트서 딥시크가 오픈AI 앞서
중국의 인공지능(AI) 스타트업 딥시크(DeepSeek)가 업계 다크호스로 주목받고 있다. 오픈 AI의 챗GPT보다 저렴한 그래픽처리장치(GPU)로 대형언어모델(LLM) 훈련을 마치고 챗GPT를 앞서는 결과가 나와 충격을 주고 있다.
최근 주요 외신들은 일제히 중국 딥시크에 대한 집중 분석 기사를 보도했다.
예컨대 뉴욕타임스(NYT)는 23일(현지시간) 보도한 분석 기사에서 딥시크가 오픈AI와 구글 등 실리콘밸리의 거대 기업보다 첨단 칩을 적게 사용하면서도 경쟁력 있는 챗봇을 만들어 미국의 AI칩 수출규제의 한계를 보여줬다고 진단했다.특히 NYT는 “딥시크가 개발한 ‘딥시크-V3’가 일부 평가에서 오픈AI와 구글의 챗봇을 넘어섰다”고 전했다.
딥시크의 기술 보고서에 따르면 딥시크-V3 개발에 투입된 비용은 557만6000달러(약 78억8000만원)다. 엔비디아의 H800 GPU를 시간당 2달러에 2개월 동안 빌린 비용으로 계산됐다.
이는 메타가 최신 AI 모델인 라마(Llama)3 모델에 H100으로 훈련한 비용의 10분의 1 수준이다. 아울러 딥시크가 사용한 H800은 미국의 고성능 칩 수출 규제로 엔비디아가 H100의 사양을 낮춰 출시한 칩이다.오픈AI를 공동창업한 안드레이 카르파티도 지난달 26일 엑스(X·옛 트위터)에 올린 글에서 딥시크의 기술 보고서를 읽고 훌륭하고 상세하다는 평가와 함께 '농담 같은 예산'으로 선도적 LLM 출시를 쉬운 것처럼 보이게 했다고 언급했다.
오픈AI가 2022년 챗GPT를 선보이며 AI 열풍을 일으킨 이후 전문가 다수는 특수 칩에 수억달러를 투자하지 않고서는 선도 기업과 경쟁할 수 없을 것으로 진단했지만, AI 선두 기업들이 1만6000개 이상의 칩을 사용해 챗봇을 훈련한 것과 달리 딥시크는 엔비디아 GPU 약 2000개만 필요했다고 NYT는 설명했다.
서방 언론들은 수출 규제 한계를 지적하고 나섰다.
NYT는 “조 바이든 미국 대통령이 퇴임 직전 중국에 대한 AI칩 수출규제를 신규로 도입했지만, 중국 일부 기업은 선구매했으며 일부는 규모가 커지는 암시장에서 조달했다”고 언급했다.파이낸셜타임스(FT)도 “미국의 수출 규제가 의도치 않게 혁신을 촉진해 딥시크의 AI 모델 개발비용이 저렴해졌다”고 짚었다.
타일러 코웬 조지메이슨대 교수도 지난 9일 블룸버그 칼럼을 통해 딥시크-V3가 보여준 혁신은 AI 개발이 대규모 칩에 의존할 필요가 없다는 점을 시사한다고 밝혔다.딥시크-V3가 지금까지 사용한 LLM 모델 수십 개 가운데 뛰어난 모델 중 하나라고 평가하기도 했다.
미국 경제 전문지 포브스와 영국 주간지 이코노미스트 등도 딥시크를 집중적으로 분석했다. 포브스는 벤치마크 평가를 과대평가해선 안 되지만 딥시크가 최신 칩 대신 혁신을 통해 성과를 거뒀다는 점에서 주목할 만하다고 강조했다.
특히 딥시크가 최근 선보인 '추론(reasoning) AI' 모델인 'R1'이 일부 성능 테스트에서 챗GPT 개발사 오픈AI가 지난해 9월 출시한 추론 AI 모델 'o1'보다 앞선 것으로 나타났다는 점에 주목했다.딥시크는 미국 수학경시대회 AIME 2024 벤치마크 테스트에서 추론 AI 모델이 79.8%를 얻었다. 오픈 AI의 추론 모델의 79.2%보다 앞섰다고 밝혔다. 코딩 부문 라이브벤치 평가에선 딥시크의 AI가 65.9%의 정확도를 기록해 챗GPT(63.4%)보다 높았다.
포브스는 “중국 AI 업계에서 가격 인하 경쟁이 시작됐으며 이는 세계 각국으로 확산할 것”이라고 전망했다.
중국의 성장은 무섭네요
정보 감사드립니다
정보 감사합니다.
감사합니다.