삼성·SK하이닉스 차세대 D램 양산 준비...온 디바이스 AI 선점戰 본격화

2024-03-13 16:40
  • * AI기술로 자동 요약된 내용입니다. 전체 맥락과 내용을 이해하기 위해서는 기사 본문 전체를 보시길 권장합니다

    초거대 인공지능(AI)에 이어 온 디바이스 AI 산업 주도권을 쥐기 위해 삼성전자·SK하이닉스가 연내 차세대 D램 양산에 속도를 낸다.

    GDDR7 D램의 등장으로 차세대 그래픽처리장치(GPU)와 이를 탑재한 PC·노트북의 온 디바이스 AI 추론 성능이 극적으로 향상될 것으로 기대된다.

    HBM(고대역메모리)을 탑재한 데이터센터용 AI 반도체에는 미치지 못하지만, GDDR7 D램을 탑재한 GPU로도 생성 AI 학습이 충분히 가능하다는 게 업계 중론이다.

  • 글자크기 설정

JEDEC, GDDR7 이어 LPDDR6 표준 연내 확정 전망

온 디바이스 AI 특화...대역폭 확대해 AI 추론 강화

삼성전자 GDDR7 D램 사진삼성전자
삼성전자 GDDR7 D램. [사진=삼성전자]
초거대 인공지능(AI)에 이어 온 디바이스 AI 산업 주도권을 쥐기 위해 삼성전자·SK하이닉스가 연내 차세대 D램 양산에 속도를 낸다. 차세대 D램은 대역폭(bandwdith·시간당 전송할 수 있는 데이터양)을 크게 확대함으로써 기기 내 AI 추론(실행) 성능을 끌어올린 게 특징이다.

13일 반도체 업계에 따르면 국제반도체표준협의기구(JEDEC)는 올 하반기 중에 차세대 저전력 메모리 'LPDDR(저전력 더블 데이터 레이트 메모리)6' 표준을 확정한다. 6~8월 중 회원사 간 구체적 논의를 거쳐 9월쯤 발표할 가능성이 크다. 삼성전자와 SK하이닉스도 LPDDR6 표준 발표를 전후해 LPDDR6 실물을 공개할 전망이다.

LPDDR은 주로 스마트폰·태블릿PC 등에 탑재하는 저전력 D램이다. 현세대 LPDDR5 D램은 지난 2019년 2월 표준을 발표했다. 이후 고성능 모바일 기기에 관한 수요가 커짐에 따라 삼성전자와 SK하이닉스는 각각 'LPDDR5X', 'LPDDR5T'라는 개선 제품을 선보인 바 있다. 

LPDDR6의 성능은 아직 베일에 싸여 있다. AI 추론 성능에 직결되는 대역폭의 경우 LPDDR5는 최대 6.4Gbps, LPDDR5X는 최대 8.5Gbps였다. 

삼성전자와 SK하이닉스는 그동안 성능보다 저렴한 가격과 높은 전력 효율성(Power Efficiency)에 초점을 맞춰 LPDDR D램을 개선해 왔다. 

하지만 지난해 4분기를 기점으로 단말기에서 생성 AI를 추론하는 온 디바이스 AI가 주목받음에 따라 성능에 관한 두 회사의 고심도 커지고 있다. 매개변수(파라미터)를 100억개 이상으로 확대한 중형 온 디바이스 AI를 추론하기 위해 LPDDR D램의 대역폭을 크게 개선할 필요성이 생겼기 때문이다. 애플·퀄컴 등 LPDDR D램의 주요 고객사가 원하는 개선 방향이기도 하다.

LPDDR6의 표준이 정해지더라도 양산 시점 등을 고려하면 연내 모바일 프로세서(AP)에 탑재하기는 다소 어려울 전망이다. 2025년 하반기에 출시하는 애플·퀄컴의 AP에 LPDDR6가 처음 탑재될 것으로 예상된다. 다만 급증하는 온 디바이스 AI 수요에 대응하기 위해 올해 10월 공개 예정인 퀄컴 '스냅드래곤8 4세대' AP에 LPDDR6를 탑재할 가능성도 조심스럽게 점쳐진다. 

또 삼성전자와 SK하이닉스는 올 상반기 차세대 그래픽 D램인 'GDDR(그래픽 더블 데이터 레이트 메모리)7'을 양산하며 PC·노트북용 온 디바이스 AI 시장 공략에도 속도를 낼 방침이다. JEDEC도 지난 5일(현지시간) GDDR7 표준을 확정하며 차세대 그래픽 D램 시대를 알렸다.

GDDR7 D램의 대역폭은 장치당 최대 192GB/s에 달한다. GDDR6보다 약 3배, GDDR6X보다 약 2배 이상 빠르다. 0과 1로 데이터 신호를 구분하던 NRZ(Non-Return-to-Zero) 방식 대신 -1, 0, 1로 신호를 구분하는 PAM3(Pulse-Amplitude Modulation) 방식을 처음 채택해 동일 신호 주기에 1.5배 더 많은 데이터를 전송할 수 있다.

GDDR7 D램의 등장으로 차세대 그래픽처리장치(GPU)와 이를 탑재한 PC·노트북의 온 디바이스 AI 추론 성능이 극적으로 향상될 것으로 기대된다. HBM(고대역메모리)을 탑재한 데이터센터용 AI 반도체에는 미치지 못하지만, GDDR7 D램을 탑재한 GPU로도 생성 AI 학습이 충분히 가능하다는 게 업계 중론이다. 생성 AI가 이용자 패턴을 학습해서 성능을 자체 개선하는 모습이 보편화될 것으로 기대된다. 

GDDR7은 엔비디아·AMD의 차세대 GPU인 '지포스 5000' 시리즈와 'RDNA4' 제품군에 탑재할 것이 유력시된다. 삼성전자와 SK하이닉스는 마이크론 제품군 대비 우월한 대역폭을 강조하며 엔비디아와 AMD를 GDDR7 고객사로 확보할 계획이다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기