'네이버-삼성 AI 반도체' 일냈다..."엔비디아보다 최대 2배 우수"

2023-12-19 16:30
  • 글자크기 설정

19일 실물 첫 공개…단일 칩으로 33B LLM 실행 강조

양산 고려한 LPDDR 채택...삼성 파운드리에서 생산

사진과학기술정보통신부
이종호 과학기술정보통신부 장관이 19일 서울 서초구 더케이호텔에서 열린
'2023 AI 반도체 미래기술 컨퍼런스'에서 김유원 네이버클라우드 대표에게 네이버·삼성 AI 반도체(가칭)에 대한 설명을 듣고 있다. [사진=과학기술정보통신부]

네이버·삼성전자가 공동 개발한 인공지능(AI) 반도체가 세상에 처음 모습을 드러냈다. '네이버·삼성 AI 반도체(가칭)'는 매개변수 330억개(33B)의 중형 초거대언어모델(LLM)을 단일 칩으로 추론(실행)할 수 있는 게 강점이다. 엔비디아 AI 반도체 대비 우수한 성능과 저렴한 운영비를 앞세워 내년부터 본격적으로 관련 시장을 공략할 계획이다.

19일 업계에 따르면 네이버클라우드는 이날 과학기술정보통신부가 서울 양재동 더케이호텔에서 개최한 '제4차 AI 반도체 최고위 전략대화'에 참가해 삼성전자와 공동 개발한 AI 반도체를 시연했다.

네이버·삼성 AI 반도체는 △4배 이상 압축한 LLM △압축한 LLM을 위한 저전력 하드웨어 △향후 양산에 대비한 제품 설계 등이 특징이다. 

팀네이버 AI 칩 설계를 총괄하는 이동수 네이버클라우드 이사는 "40여명의 양사 AI 반도체 전문가를 투입해 엔비디아를 대체할 AI 반도체 설계에 나섰다"며 "AI 모델 양자화 등 최적화 기술을 활용해 LPDDR D램을 탑재했음에도 HBM D램을 탑재한 AI 반도체보다 우수한 추론 성능을 갖췄다"고 설명했다.

실제로 네이버·삼성 AI 반도체는 오픈소스 LLM인 '라마' 33B 모델을 단일 칩에서 추론할 수 있다. 현재 최고 성능의 AI 반도체라고 평가받는 엔비디아 'H100'가 2대의 칩이 필요한 점을 고려하면 도입·운영비 면에서 큰 강점이 있는 것이다.

네이버·삼성 AI 반도체가 H100을 뛰어 넘는 운영 효율을 보일 수 있었던 배경에는 양사 전문가가 고심해 만든 AI 모델 최적화 기술이 있다. 최적화 기술을 활용해 AI 모델과 D램이 데이터를 주고받는 속도를 끌어올렸다. 원래 LPDDR5X D램의 데이터 전송 속도는 초당 480기가바이트(GB)로, 초당 약 2000GB의 데이터를 전송할 수 있는 HBM과 비교해 많이 떨어진다. 반면 네이버·삼성 AI 반도체에 탑재한 LPDDR5X D램은 최적화 기술을 활용해 HBM에 버금가는 초당 1920GB 속도로 AI 모델과 데이터를 주고받는다. 

단일 칩에 탑재한 D램 용량도 128GB에 달한다. 80GB를 탑재한 H100은 물론 6~10GB D램을 탑재한 스마트폰과 비교해도 압도적으로 크다. 이런 최적화와 넉넉한 D램 용량이 네이버·삼성 AI 반도체의 핵심 경쟁력이라고 이 이사는 밝혔다. 그러면서 "대량 양산되는 LPDDR D램을 채택함으로 AI 반도체 수요 증가에도 효과적으로 대처할 수 있을 것"이라고 덧붙였다. HBM 공급 물량이 부족해 제때 AI 반도체를 양산하지 못하는 경쟁사들과는 다를 것이라는 자신감의 표현이다.

네이버·삼성 AI 반도체는 현재 설계 효율성을 검증하는 단계로, 내년 중 반도체 설계를 최종 확정하고 칩 양산에 착수할 전망이다. 칩 생산은 삼성전자 파운드리에서 진행한다. 다만 몇 나노미터(㎚) 공정에서 양산할지는 아직 확정하지 못했다. 삼성전자 파운드리 생산 여력에 맞춰 4~5㎚ 가운데 한 곳으로 정해질 것으로 예상된다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기