[신 AI·Tech 혁명] 中 딥시크 돌풍에 탈엔비디아 행보 거세져...K-AI칩 기회 잡는다
2025-01-30 18:00
엔비디아 대신 화웨이 AI칩으로 서비스 운영
투자자 달래기 나선 엔비디아, 추론칩 생산량 확대 가능성
자체 언어모델, AI 추론칩 수요 증가...K-AI 팹리스에 기회로
투자자 달래기 나선 엔비디아, 추론칩 생산량 확대 가능성
자체 언어모델, AI 추론칩 수요 증가...K-AI 팹리스에 기회로

중국의 인공지능(AI)·금융 스타트업 딥시크가 공개한 언어모델 딥시크-V3로 인해 엔비디아가 주도하던 AI 반도체 업계에도 한 차례 변화가 불가피할 전망이다. 전문가들은 AI학습 시장에서 엔비디아의 우위에는 큰 변화가 없겠지만 AI추론(실행) 시장에선 화웨이 등 상대적으로 저가 AI칩을 공급하는 업체의 강세가 두드러질 것으로 예측했다. 퓨리오사AI, 리벨리온 등 AI추론칩 양산에 속도를 내고 있던 국내 AI칩 팹리스도 함께 매출·영업이익이 확대될 것으로 기대된다.
30일 딥시크 기술백서에 따르면 회사가 V3 개발을 위해 투자한 비용은 557만6000만 달러(약 79억원)로 메타가 '라마3' 개발을 위해 투자한 비용의 10분의 1 수준이다. 미국의 대중국 AI 규제에 맞춰 GPU(그래픽처리장치) 성능을 낮추고 HBM3(4세대)를 HBM2E(3세대)로 교체한 H800을 활용하면서 다양한 최적화 기술을 적용해 AI 모델 개발 비용을 낮출 수 있었다고 전문가들은 분석했다.
또 AI 서비스를 운영하면서 엔비디아의 AI칩(데이터센터 GPU) 대신 화웨이의 AI칩인 어센드 910B를 채택해 비용을 절감했다. 실제로 딥시크 V3는 AI 운영비를 감축할 수 있었던 비결을 묻는 질문에 "화웨이 어센드 910B 칩을 대거 이용했다"며 "이 칩은 엔비디아의 AI칩인 A100의 80%에 육박하는 성능을 내면서 가격은 30%에 불과하다"고 답했다.
전문가들은 딥시크가 AI학습·추론을 모두 엔비디아 AI칩에 의존하던 기존 관행을 부순 첫 사례라며 올해 AI추론 시장에서 엔비디아의 우위가 사라질 것으로 예측했다. 이를 의식한 듯 엔비디아도 지난 27일(현지시간) 투자자들에게 서한을 보내 "딥시크는 최근 사용자 급증으로 인해 서비스를 원활하게 제공하지 못하고 있다"며 "딥시크 등 중국 AI 기업의 AI추론 작업에는 많은 엔비디아 AI칩과 고성능 네트워킹(NV링크)이 필요할 것"이라고 강조했다.
AI칩 업계에선 딥시크 쇼크에 그동안 호퍼, 블랙웰 등 고가 AI학습·추론칩에 집중했던 엔비디아가 올해부터 중저가 AI추론칩 생산량을 확대할 것으로 보고 있다. 이에 HBM4 등 선단 D램뿐만 아니라 HBM3·2E나 GDDR6·7 등 레거시 D램 수요도 함께 급증할 것으로 예측된다.