젠슨 황 엔비디아 CEO "HBM4 탑재한 AI칩 '루빈', 2026년 출시"

2024-06-02 23:29
대만 컴퓨텍스 행사 키노트 진행
블랙웰 뒤잇는 차세대 AI칩 공개
HBM 경쟁력이 AI칩 경쟁력...하이닉스·삼성전자 경쟁도 치열

젠슨 황 엔비디아 CEO가 대만 컴퓨텍스 2024 행사 키노트에서 차세대 AI 반도체 블랙웰과 루빈에 관해 설명하고 있다. [사진=AP·연합뉴스]

전 세계 1위 인공지능(AI) 반도체 기업 엔비디아가 HBM3E(5세대 고대역폭 메모리) D램을 탑재한 신형 AI 반도체 '블랙웰(Blackwell)'을 올 연말에 출시하는데 이어 HBM4(6세대) D램을 탑재한 '루빈(Rubin)'을 2026년 출시하겠다고 밝혔다. 

올해 8단 적층(Hi) HBM3E와 내년 12단 HBM3E에 이어 2026년에는 HBM4 D램을 둘러싼 SK하이닉스와 삼성전자 간 1등 AI 메모리 기업 경쟁도 한층 치열해질 전망이다.  

2일 엔비디아에 따르면 젠슨 황 엔비디아 최고경영자(CEO)는 이날 저녁 대만 컴퓨텍스 2024 행사를 앞두고 타이베이 국립대만대 스포츠센터에서 사전 기조연설을 진행했다.

행사에서 황 CEO는 엔비디아가 '데이터센터 AI'부터 '온 디바이스 AI'까지 모든 AI 영역에서 1등 기업이라고 강조하며 자사 하드웨어와 소프트웨어 생태계 경쟁력을 소개했다.

가장 많은 관심이 집중된 곳은 대부분의 초거대 AI의 두뇌 역할을 하고 있는 데이터센터 GPU(AI 반도체) 관련 발표였다. 지난 3월 미국 실리콘밸리에서 진행한 GTC(그래픽기술컨퍼런스) 2024 행사에서 현행 '호퍼'의 뒤를 잇는 블랙웰 플랫폼을 발표한 황 CEO는 이날 블랙웰의 다음 세대 AI 반도체인 루빈도 직접 공개했다. 

루빈은 우주 암흑 물질과 은하 회전 속도에 관한 연구를 한 미국 천문학자 베라 루빈의 이름을 딴 것으로, AI를 활용해 우주의 신비를 밝혀내겠다는 황 CEO의 의중을 엿볼 수 있다.

황 CEO가 불과 3개월 간격으로 신형 AI 반도체 계획을 연이어 공개한 것은 경쟁이 나날이 치열해지고 있는 AI 반도체 시장에서 경쟁사가 따라올 여지를 차단하려는 데 있다. 특히 엔비디아 제품의 HBM D램 경쟁력을 강조함으로써 신형 HBM D램 수급에 애를 먹고 있는 경쟁사와 차이점을 부각하려는 전략으로 풀이된다.

시장조사업체 웰스파고리서치는 "지난해 AI 반도체 시장에서 엔비디아가 매출 기준 98% 점유율을 차지했다"며 "AMD·인텔 등 경쟁자의 도전에도 불구하고 엔비디아의 올해 AI 반도체 시장 점유율은 매출 기준 94~96%에 달할 것"이라고 예측했다.

황 CEO에 따르면 우선 올해 말 8단 HBM3E D램을 탑재한 블랙웰을 주요 고객사에 공급하는데 이어 내년에는 12단 HBM3E D램을 탑재한 '블랙웰 울트라'를 출시할 예정이다. 블랙웰과 블랙웰 울트라는 모두 최대 8개의 HBM3E D램을 연결할 수 있다. 이에 블랙웰의 메모리 용량은 칩당 192GB(기가바이트), 블랙웰 울트라는 칩당 288GB에 달할 것으로 예측된다.

이어 2026년에는 HBM4 D램을 탑재한 루빈을 시장에 출시하고 2027년에는 '루빈 울트라'를 투입할 계획이다. 루빈 울트라도 HBM4를 탑재하지만 칩당 8개의 HBM4를 연결할 수 있는 루빈과 달리 칩당 12개를 연결할 수 있다. 엔비디아가 자사 AI 반도체에 칩당 12개의 HBM을 연결하는 것은 루빈 울트라가 처음이다. HBM 수요 증가로 이어질 가능성이 크다.

TSMC 4NP(4㎚) 공정에서 양산하는 블랙웰과 달리 루빈은 TSMC N3(3㎚) 공정에서 양산할 것으로 알려졌다. TSMC CoWoS(칩 온 웨이퍼 온 서브스트레이트)-L 패키징 기술을 활용해 HBM4 D램과 결합될 전망이다.

가장 큰 HBM D램 고객사인 엔비디아가 HBM4 D램 채택을 공식화함에 따라 루빈 양산에 앞서 자사 HBM4를 엔비디아에 공급하기 위한 SK하이닉스와 삼성전자의 물밑 경쟁도 한층 치열해질 전망이다.

경쟁에서 앞서고 있는 곳은 SK하이닉스다. HBM4 개발 관련 일정을 모두 공개하며 HBM D램 관련 경쟁력을 자신하고 있다. 김귀욱 SK하이닉스 HBM선행기술팀장은 지난달 서울 광진구 그랜드워커힐 서울에서 열린 '국제메모리워크숍(IMW) 2024' 행사에서 "이르면 2025년 HBM4 개발을 완료하고 양산에 나설 것"이라고 밝혔다. 

김 팀장은 "그동안 2년 주기로 HBM D램 제품을 개발했는데, 최근 기술 발전으로 이 주기가 1년가량 빨라졌다"고 말한 바 있다. 고객사인 엔비디아가 신제품 출시 주기를 앞당긴 것을 사전에 파악하고 한 발언으로 풀이된다.

SK하이닉스는 GTC 2024 행사에서 HBM4는 D램칩을 8~12단 적층하는 HBM3E와 달리 16단을 쌓음으로써 데이터 처리 용량을 48GB로 확대하겠다고 밝힌 바 있다. D램칩은 전작과 동일한 1b㎚(10나노급) D램을 채택할 전망이다. 이를 통해 HBM4는 전작 HBM3E와 비교해 △대역폭은 1.4배 △집적도는 1.3배 △전력효율은 30% 개선될 예정이다. 적층 기술로는 칩과 칩을 바로 결합하는 '하이브리드 본딩'보다 액체 보호제를 활용하는 기존 '첨단 MR-MUF' 방식을 채택할 예정이다. 

삼성전자도 HBM D램 개발팀을 이원화하며 신제품 개발 속도를 끌어올리고 있다. HBM3E는 기존 HBM 개발을 맡던 'D램 설계팀'이, HBM4는 최근 신설한 'HBM 개발팀'이 전담하기로 했다.