네이버·삼성전자가 공동 개발한 인공지능(AI) 반도체가 세상에 처음 모습을 드러냈다. '네이버·삼성 AI 반도체(가칭)'는 매개변수 330억개(33B)의 중형 초거대언어모델(LLM)을 단일 칩으로 추론(실행)할 수 있는 게 강점이다. 엔비디아 AI 반도체 대비 우수한 성능과 저렴한 운영비를 앞세워 내년부터 본격적으로 관련 시장을 공략할 계획이다.
19일 업계에 따르면 네이버클라우드는 이날 과학기술정보통신부가 서울 양재동 더케이호텔에서 개최한 '제4차 AI 반도체 최고위 전략대화'에 참가해 삼성전자와 공동 개발한 AI 반도체를 시연했다.
네이버·삼성 AI 반도체는 △4배 이상 압축한 LLM △압축한 LLM을 위한 저전력 하드웨어 △향후 양산에 대비한 제품 설계 등이 특징이다.
실제로 네이버·삼성 AI 반도체는 오픈소스 LLM인 '라마' 33B 모델을 단일 칩에서 추론할 수 있다. 현재 최고 성능의 AI 반도체라고 평가받는 엔비디아 'H100'가 2대의 칩이 필요한 점을 고려하면 도입·운영비 면에서 큰 강점이 있는 것이다.
네이버·삼성 AI 반도체가 H100을 뛰어 넘는 운영 효율을 보일 수 있었던 배경에는 양사 전문가가 고심해 만든 AI 모델 최적화 기술이 있다. 최적화 기술을 활용해 AI 모델과 D램이 데이터를 주고받는 속도를 끌어올렸다. 원래 LPDDR5X D램의 데이터 전송 속도는 초당 480기가바이트(GB)로, 초당 약 2000GB의 데이터를 전송할 수 있는 HBM과 비교해 많이 떨어진다. 반면 네이버·삼성 AI 반도체에 탑재한 LPDDR5X D램은 최적화 기술을 활용해 HBM에 버금가는 초당 1920GB 속도로 AI 모델과 데이터를 주고받는다.
단일 칩에 탑재한 D램 용량도 128GB에 달한다. 80GB를 탑재한 H100은 물론 6~10GB D램을 탑재한 스마트폰과 비교해도 압도적으로 크다. 이런 최적화와 넉넉한 D램 용량이 네이버·삼성 AI 반도체의 핵심 경쟁력이라고 이 이사는 밝혔다. 그러면서 "대량 양산되는 LPDDR D램을 채택함으로 AI 반도체 수요 증가에도 효과적으로 대처할 수 있을 것"이라고 덧붙였다. HBM 공급 물량이 부족해 제때 AI 반도체를 양산하지 못하는 경쟁사들과는 다를 것이라는 자신감의 표현이다.
네이버·삼성 AI 반도체는 현재 설계 효율성을 검증하는 단계로, 내년 중 반도체 설계를 최종 확정하고 칩 양산에 착수할 전망이다. 칩 생산은 삼성전자 파운드리에서 진행한다. 다만 몇 나노미터(㎚) 공정에서 양산할지는 아직 확정하지 못했다. 삼성전자 파운드리 생산 여력에 맞춰 4~5㎚ 가운데 한 곳으로 정해질 것으로 예상된다.