美 독주에 韓·英·中 추격전...AI 반도체 기술 대전 열린다
2023-02-14 18:45
연 16% 성장 2026년 109조원 규모...메모리 시장 절반 달해
학습·추론 기능 복잡해질수록 메모리 과부하...답변지연 해결 '비용'이 문제
엔비디아 '학습용' 독점 속… 국내 업체들 '추론·저전력' 기술 집중
학습·추론 기능 복잡해질수록 메모리 과부하...답변지연 해결 '비용'이 문제
엔비디아 '학습용' 독점 속… 국내 업체들 '추론·저전력' 기술 집중
연내 초거대 인공지능(AI) 기반 생성 AI 서비스가 대거 상용화될 것으로 예상됨에 따라 AI 반도체(NPU) 시장도 함께 급성장할 전망이다. 시장조사업체 가트너에 따르면 전 세계 AI 반도체 시장은 2021년 347억 달러(약 44조원)에서 연평균 16%씩 성장해 2026년 861억 달러(약 109조원)에 도달할 것으로 예상된다. 메모리 반도체 시장의 절반에 달하는 규모다. 기존 시스템·메모리 반도체 산업 성장이 둔화한 점을 고려하면 AI 반도체를 선점하는 국가와 기업이 미래 반도체 시장을 선도할 수밖에 없다.
이에 현재 미국 기업이 독점하고 있는 AI 반도체 시장을 두고 영국·중국에 이어 한국 기업들도 잇따라 도전장을 내밀고 있다. 전문가들은 "아직은 시장의 맹주인 '엔비디아'에 비하면 미약하지만, 소프트웨어(AI)·하드웨어(실리콘)의 긴밀한 연계와 한국이 강점을 가진 메모리 기술력을 적극 활용하면 국내 AI 반도체 기업에도 충분히 승산이 있다"고 입을 모았다.
◆"엔비디아, 게 섰거라"...AI 반도체 양산 착수한 K-AI 팹리스
14일 반도체 업계에 따르면 국내 AI (반도체) 팹리스 리벨리온이 데이터센터용 AI 반도체인 '아톰(ATOM)'을 출시했다. 아톰은 '합성곱(CNN)'과 '순환 신경망(RNN)'뿐 아니라 초거대 AI의 원천 기술인 '트랜스포머 자연어 처리 모델'을 지원하는 국내 첫 AI 반도체인 것이 특징이다.
기존 AI 반도체는 특정 서비스에 맞게 설계된 소형 AI 모델만 실행할 수 있었으나 아톰은 트랜스포머 모델을 지원함으로써 KT '믿음'과 같은 초거대 AI를 실행할 수 있다. 트랜스포머 모델은 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망을 뜻한다.
삼성전자 5nm 공정에서 생산된 아톰은 전력 소비량이 엔비디아 'A100'의 20% 수준에 불과하다. 자연어 처리뿐 아니라 컴퓨터 비전 모델 추론(실행)도 지원한다. 엔비디아 A100은 그래픽 카드(GPU)인 지포스 3000 시리즈와 동일한 암페어 아키텍처 기반 학습·추론용 AI 반도체로, 300~400W의 전력을 소모한다. 챗GPT를 포함한 대부분의 초거대 AI가 A100에서 학습·추론되는 것으로 알려졌다.
아톰의 성능은 딥러닝(인공신경망) 가속 능력을 평가하는 공식 벤치마크인 'ML퍼프'를 통해 검증받는다. 박성현 리벨리온 대표는 "이달 말 아톰의 ML퍼프 벤치마크 결과를 제출할 예정"이라며 "경쟁사가 합성곱 기반 컴퓨터 비전 모델 결과만 제출한 것과 달리 리벨리온은 차별화를 위해 트랜스포머 모델인 'BERT' 결과를 제출할 것"이라고 밝혔다.
또 다른 국내 AI 팹리스인 퓨리오사AI는 5년간 연구개발을 거쳐 지난해 말부터 삼성전자 파운드리에서 AI 반도체 '워보이' 양산에 착수했다. 올해 상반기 중 시작하는 국산 AI 반도체팜 구축과 특화 AI 서비스 개발을 위한 AI 반도체 물량을 충분히 공급할 수 있는 사실상 국내 유일한 사업자라는 게 백준호 퓨리오사AI 대표의 자신감이다.
퓨리오사 AI는 워보이의 ML퍼프 성능 검증을 국내에서 가장 빠른 2019년에 마쳤다. 워보이는 엔비디아의 추론용 AI 반도체 T4 대비 이미지 분류, 객체검출 처리속도 등에서 약 1.5배 우수한 성능을 기록했다. 가격도 T4의 30~40%에 불과할 정도로 저렴하다.
SK텔레콤(SKT)·SK하이닉스가 공동 출자해 설립한 AI 팹리스 사피온은 지난해 10월 NHN 판교 데이터센터에 AI 반도체팜을 공동 구축한 데 이어, 12월 패션 특화 AI 서비스 '버츄얼 트라이온'을 사피온의 추론용 AI 반도체 'X220'에서 실행해 엔비디아 AI 반도체 A2보다 추론속도가 빠른 것을 확인했다. 엔비디아 A2는 GPU인 지포스 3050Ti를 AI 모델 추론에 맞게 개조한 AI 반도체다. 사피온도 지난해 9월 ML퍼프를 통해 성능 검증을 받았다.
2020년부터 AI 반도체 양산에 들어간 사피온도 X220 생산량을 확대하며 초기 고객 확대에 총력을 기울일 방침이다. SK하이닉스의 고대역 적층형 메모리(HBM)를 탑재해 AI 추론뿐 아니라 학습도 가능한 차세대 AI 반도체 'X330'도 연내 출시할 예정이다. 사피온은 박경 SK하이닉스 메모리시스템연구 담당 부사장을 이사회에 포함시키는 등 SK하이닉스와 메모리 분야 긴밀한 협력에도 속도를 내고 있다.
◆미국서도 엔비디아 추격 움직임...업계선 구글·퀄컴·삼바노바 주목
업계에 따르면 AI 팹리스들의 움직임이 가장 활발한 곳은 미국이다. 1위 사업자인 엔비디아를 따라잡기 위해 빅테크와 AI 팹리스가 앞다투어 신형 AI 반도체를 선보이고 있다. △AMD(인스팅트) △인텔(고야·가우디) △구글(TPU) △아마존웹서비스(인퍼런시아) △퀄컴(클라우드 AI) △삼바노바(SN10) △세레브레스(WSE-2) △그록(그록칩) 등이 대표적이다. AMD와 인텔은 초거대 AI와 AI 반도체를 연결하는 엔비디아의 핵심 기술인 '쿠다 라이브러리'에 대응하기 위해 '오픈CL' 연합 전선을 펼치고 있다. 구글은 TPU를 지속해서 업그레이드하며 자사 초거대 AI 운영에 활용하고 클라우드를 통해 외부에 공개하고 있다. LG AI 연구원 '엑사원'과 카카오브레인 'KoGPT' 등 국내 초거대 AI 학습·추론에도 TPU가 활용되고 있다. 아마존웹서비스는 이스라엘의 AI 팹리스 안나푸르나랩을 인수해 인퍼런시아를 개발하고 클라우드를 통해 외부에 공개했다. 퀄컴은 클라우드 AI칩을 활용해 ARM 서버 기반 저전력 AI 추론 시스템을 만들어 기업들에 공급하고 있다.
삼바노바, 세레브레스, 그록 등은 처음부터 AI 반도체 사업을 위해 설립한 팹리스들이다. 삼바노바는 자사 AI 반도체를 외부에 판매하지 않고 AI 반도체팜을 구축한 후 이를 클라우드 형태로 기업에 임대하는 사업을 전개하고 있다. 세레브레스는 웨이퍼 크기를 극단적으로 키운 독특한 AI 반도체 설계가 특징으로 아스트라제네카, 글락소스미스클라인 등 글로벌 제약사를 고객으로 확보했다. 영국의 AI 팹리스 그래프코어는 추론에 특화한 AI 반도체 'IPU'에 이어 학습·추론을 모두 지원하는 2세대 '보우 IPU'를 출시하며 전 세계 클라우드 기업과 이동통신사에 AI 반도체를 공급하고 있다.
중국은 초기에는 화웨이·알리바바·바이두 등 빅테크를 중심으로 AI 반도체 연구가 활발했지만 미국 정부의 반도체 수출 규제로 인해 그 세가 크게 꺾였다. 현재는 AI 팹리스를 중심으로 관련 연구를 진행 중이다. 대만도 팹리스 뉴칩스가 AI 반도체 '렉액셀(RecAccel)'을 선보이는 등 업계에 존재감을 드러내고 있다.
◆챗GPT, 메모리 부하 문제 부딪쳐...메모리 강점 가진 한국에 기회
국내 AI 팹리스뿐 아니라 네이버와 삼성전자도 데이터센터용 AI 반도체 시장에 출사표를 냈다. 양사는 지난해 12월 네이버의 초거대 AI 설계·운영 역량과 삼성전자의 하드웨어 인프라 경험 및 최신 메모리 기술을 결합해 하이퍼클로바에 최적화한 AI 반도체를 개발하기로 했다. 메모리 최적화와 저전력에 집중함으로써 엔비디아 등 기존 AI 반도체 대비 월등한 운영 효율성을 내는 게 목표다.
네이버·삼성전자 AI 반도체 사업을 이끄는 이동수 네이버클라우드 이사는 지난 10일 한국공학한림원이 주최한 AI 반도체 웨비나에서 "초거대 AI는 결국 비용 문제로 요약된다. 오픈AI는 일일 수십억원의 비용을 들여 챗GPT를 운영 중이고, 마이크로소프트의 AI 기반 검색은 일반 검색 대비 운영비가 100~200배 더 필요할 것으로 예상된다"며 "운영 비용을 최소화하면서 초거대 AI 서비스를 제공하는 것이 곧 IT 기업들의 화두로 떠오를 것"이라고 밝혔다.
이어 "챗GPT를 포함한 생성 AI는 질문에 대한 답변을 하는 과정에서 CPU(중앙처리장치)·GPU(그래픽처리장치)보다 메모리에서 데이터를 처리하는 비중이 크다"며 "초거대 AI 모델 학습·추론 시 메모리에 부하가 걸리는 문제를 해결하려는 것이 네이버와 삼성전자가 함께 AI 반도체 개발에 나선 동기"라고 설명했다.
현재 챗GPT는 하루 1500만명 이상의 이용자가 몰리면서 메모리 부하로 인해 답변이 느려지는 문제가 생겼는데, 이 문제를 해결하지 않으면 오픈AI와 마이크로소프트도 큰 어려움에 봉착할 것이라는 게 이동수 이사의 설명이다.
그는 이렇게 메모리에 중점을 두고 설계된 AI 반도체의 대표 사례로 구글 TPU를 꼽았다. TPU1(45nm)에서 TPU4(7nm)로 업그레이드하면서 CPU(중앙처리장치), S램, D램 성능은 크게 변한 게 없는 반면 GDDR 메모리와 HBM 메모리 성능은 혁신적으로 발전했다는 것이다. 이동수 이사는 이렇게 AI 반도체에서 메모리의 중요성이 커지는 현상은 삼성전자, SK하이닉스 등 고용량 집적 메모리를 만들 수 있는 세계 1·2위 업체를 보유한 한국에 큰 기회가 될 것으로 내다봤다.
이날 행사에 함께한 박성현 리벨리온 대표는 "최적의 AI 반도체를 설계하려면 단순히 소프트웨어를 넘어 AI 알고리즘까지 이해해야 한다"며 "리벨리온은 반응속도(레이턴시)와 금융에 특화한 추론용 AI 반도체를 개발해 먼저 KT의 초거대 AI(믿음)와 AICC(인공지능콜센터) 실행에 필요한 하드웨어 인프라를 엔비디아에서 리벨리온 AI 반도체로 바꾼 후 AI 반도체를 클라우드를 통해 외부에 공개할 것"이라고 말했다.
박성현 대표는 "학습과 추론은 반도체 칩 규모(스케일)에서 차이가 있다. AI 반도체의 규모가 커지면 필연적으로 관련 개발 비용과 운영 비용(전기료)이 커질 수밖에 없다"며 국산 AI 반도체는 추론과 저전력에 집중함으로써 기업들의 AI 서비스 운영 비용을 절감하는 데 집중해야 한다는 입장을 내비쳤다.
두 전문가는 엔비디아가 97% 점유율로 독주 중인 데이터센터용 AI 반도체 시장에서 국산 AI 반도체가 점유율과 영향력을 확대할 방안도 제시했다.
이동수 이사는 "엔비디아가 AI 반도체 성능이 좋은 것은 부인할 수가 없는 사실이다. 기업 입장에서 비용을 더 내더라도 많은 서비스를 제공할 수 있는 만큼 선호도가 높다"며 "특히 초거대 AI 구현을 위한 기술 흐름이 트랜스포머 모델 중심으로 바뀌는 상황에서 (엔비디아가) 관련 생태계 구축이 가장 빨랐다"고 설명했다.
박성현 대표는 학습용 AI 반도체 시장은 당분간 엔비디아가 독주할 것으로 예상되는 만큼 국내 AI 반도체 기업은 지연시간을 단축하는 등 추론용 AI 반도체 관련 기술 경쟁력을 확보해야 한다고 강조했다. 그는 "새 제품(국산 AI 반도체)이 시장에 받아들여지려면 고객의 습관을 바꿔야 하는데, 그게 어렵다. 새 AI 반도체가 좋은 것을 알아도 관성적으로 기존 제품(엔비디아)을 쓰는 경우가 많다"며 "국산 AI 반도체가 시장에서 받아들여질 때까지 버틸 체력·자본·참을성이 필요할 것으로 본다. 초거대 AI를 포함해 AI를 개발하는 국내외 기업과 컨소시엄을 구성하는 것도 관련 수요를 확보할 수 있는 한 방법"이라고 말했다.
반도체 업계 전문가인 이종호 과학기술정보통신부 장관은 취임 후 지속해서 "AI 시대 핵심은 전력 소모량을 줄인 차세대 AI 반도체 기술에 있다"며 "저전력과 한국의 차세대 메모리 기술을 결합하면 글로벌 시장에서 유의미한 경쟁력을 확보할 수 있다"고 강조하고 있다. 이를 위해 '국산 AI 반도체를 활용한 K-클라우드 추진 계획'을 수립, 2030년까지 8262억원을 투자해서 PIM(연산 능력을 갖춘 메모리)과 극저전력 PIM 기술을 상용화하고 국내 기업이 이를 활용한 극저전력 AI 반도체를 출시할 수 있도록 지원할 방침이다. 국내 초거대 AI 및 AI 반도체 기업과 함께 초거대 AI와 AI 반도체를 유기적으로 연결할 방안도 이번 주에 논의한다.
이에 현재 미국 기업이 독점하고 있는 AI 반도체 시장을 두고 영국·중국에 이어 한국 기업들도 잇따라 도전장을 내밀고 있다. 전문가들은 "아직은 시장의 맹주인 '엔비디아'에 비하면 미약하지만, 소프트웨어(AI)·하드웨어(실리콘)의 긴밀한 연계와 한국이 강점을 가진 메모리 기술력을 적극 활용하면 국내 AI 반도체 기업에도 충분히 승산이 있다"고 입을 모았다.
◆"엔비디아, 게 섰거라"...AI 반도체 양산 착수한 K-AI 팹리스
14일 반도체 업계에 따르면 국내 AI (반도체) 팹리스 리벨리온이 데이터센터용 AI 반도체인 '아톰(ATOM)'을 출시했다. 아톰은 '합성곱(CNN)'과 '순환 신경망(RNN)'뿐 아니라 초거대 AI의 원천 기술인 '트랜스포머 자연어 처리 모델'을 지원하는 국내 첫 AI 반도체인 것이 특징이다.
기존 AI 반도체는 특정 서비스에 맞게 설계된 소형 AI 모델만 실행할 수 있었으나 아톰은 트랜스포머 모델을 지원함으로써 KT '믿음'과 같은 초거대 AI를 실행할 수 있다. 트랜스포머 모델은 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망을 뜻한다.
삼성전자 5nm 공정에서 생산된 아톰은 전력 소비량이 엔비디아 'A100'의 20% 수준에 불과하다. 자연어 처리뿐 아니라 컴퓨터 비전 모델 추론(실행)도 지원한다. 엔비디아 A100은 그래픽 카드(GPU)인 지포스 3000 시리즈와 동일한 암페어 아키텍처 기반 학습·추론용 AI 반도체로, 300~400W의 전력을 소모한다. 챗GPT를 포함한 대부분의 초거대 AI가 A100에서 학습·추론되는 것으로 알려졌다.
아톰의 성능은 딥러닝(인공신경망) 가속 능력을 평가하는 공식 벤치마크인 'ML퍼프'를 통해 검증받는다. 박성현 리벨리온 대표는 "이달 말 아톰의 ML퍼프 벤치마크 결과를 제출할 예정"이라며 "경쟁사가 합성곱 기반 컴퓨터 비전 모델 결과만 제출한 것과 달리 리벨리온은 차별화를 위해 트랜스포머 모델인 'BERT' 결과를 제출할 것"이라고 밝혔다.
또 다른 국내 AI 팹리스인 퓨리오사AI는 5년간 연구개발을 거쳐 지난해 말부터 삼성전자 파운드리에서 AI 반도체 '워보이' 양산에 착수했다. 올해 상반기 중 시작하는 국산 AI 반도체팜 구축과 특화 AI 서비스 개발을 위한 AI 반도체 물량을 충분히 공급할 수 있는 사실상 국내 유일한 사업자라는 게 백준호 퓨리오사AI 대표의 자신감이다.
퓨리오사 AI는 워보이의 ML퍼프 성능 검증을 국내에서 가장 빠른 2019년에 마쳤다. 워보이는 엔비디아의 추론용 AI 반도체 T4 대비 이미지 분류, 객체검출 처리속도 등에서 약 1.5배 우수한 성능을 기록했다. 가격도 T4의 30~40%에 불과할 정도로 저렴하다.
SK텔레콤(SKT)·SK하이닉스가 공동 출자해 설립한 AI 팹리스 사피온은 지난해 10월 NHN 판교 데이터센터에 AI 반도체팜을 공동 구축한 데 이어, 12월 패션 특화 AI 서비스 '버츄얼 트라이온'을 사피온의 추론용 AI 반도체 'X220'에서 실행해 엔비디아 AI 반도체 A2보다 추론속도가 빠른 것을 확인했다. 엔비디아 A2는 GPU인 지포스 3050Ti를 AI 모델 추론에 맞게 개조한 AI 반도체다. 사피온도 지난해 9월 ML퍼프를 통해 성능 검증을 받았다.
2020년부터 AI 반도체 양산에 들어간 사피온도 X220 생산량을 확대하며 초기 고객 확대에 총력을 기울일 방침이다. SK하이닉스의 고대역 적층형 메모리(HBM)를 탑재해 AI 추론뿐 아니라 학습도 가능한 차세대 AI 반도체 'X330'도 연내 출시할 예정이다. 사피온은 박경 SK하이닉스 메모리시스템연구 담당 부사장을 이사회에 포함시키는 등 SK하이닉스와 메모리 분야 긴밀한 협력에도 속도를 내고 있다.
업계에 따르면 AI 팹리스들의 움직임이 가장 활발한 곳은 미국이다. 1위 사업자인 엔비디아를 따라잡기 위해 빅테크와 AI 팹리스가 앞다투어 신형 AI 반도체를 선보이고 있다. △AMD(인스팅트) △인텔(고야·가우디) △구글(TPU) △아마존웹서비스(인퍼런시아) △퀄컴(클라우드 AI) △삼바노바(SN10) △세레브레스(WSE-2) △그록(그록칩) 등이 대표적이다. AMD와 인텔은 초거대 AI와 AI 반도체를 연결하는 엔비디아의 핵심 기술인 '쿠다 라이브러리'에 대응하기 위해 '오픈CL' 연합 전선을 펼치고 있다. 구글은 TPU를 지속해서 업그레이드하며 자사 초거대 AI 운영에 활용하고 클라우드를 통해 외부에 공개하고 있다. LG AI 연구원 '엑사원'과 카카오브레인 'KoGPT' 등 국내 초거대 AI 학습·추론에도 TPU가 활용되고 있다. 아마존웹서비스는 이스라엘의 AI 팹리스 안나푸르나랩을 인수해 인퍼런시아를 개발하고 클라우드를 통해 외부에 공개했다. 퀄컴은 클라우드 AI칩을 활용해 ARM 서버 기반 저전력 AI 추론 시스템을 만들어 기업들에 공급하고 있다.
삼바노바, 세레브레스, 그록 등은 처음부터 AI 반도체 사업을 위해 설립한 팹리스들이다. 삼바노바는 자사 AI 반도체를 외부에 판매하지 않고 AI 반도체팜을 구축한 후 이를 클라우드 형태로 기업에 임대하는 사업을 전개하고 있다. 세레브레스는 웨이퍼 크기를 극단적으로 키운 독특한 AI 반도체 설계가 특징으로 아스트라제네카, 글락소스미스클라인 등 글로벌 제약사를 고객으로 확보했다. 영국의 AI 팹리스 그래프코어는 추론에 특화한 AI 반도체 'IPU'에 이어 학습·추론을 모두 지원하는 2세대 '보우 IPU'를 출시하며 전 세계 클라우드 기업과 이동통신사에 AI 반도체를 공급하고 있다.
중국은 초기에는 화웨이·알리바바·바이두 등 빅테크를 중심으로 AI 반도체 연구가 활발했지만 미국 정부의 반도체 수출 규제로 인해 그 세가 크게 꺾였다. 현재는 AI 팹리스를 중심으로 관련 연구를 진행 중이다. 대만도 팹리스 뉴칩스가 AI 반도체 '렉액셀(RecAccel)'을 선보이는 등 업계에 존재감을 드러내고 있다.
◆챗GPT, 메모리 부하 문제 부딪쳐...메모리 강점 가진 한국에 기회
국내 AI 팹리스뿐 아니라 네이버와 삼성전자도 데이터센터용 AI 반도체 시장에 출사표를 냈다. 양사는 지난해 12월 네이버의 초거대 AI 설계·운영 역량과 삼성전자의 하드웨어 인프라 경험 및 최신 메모리 기술을 결합해 하이퍼클로바에 최적화한 AI 반도체를 개발하기로 했다. 메모리 최적화와 저전력에 집중함으로써 엔비디아 등 기존 AI 반도체 대비 월등한 운영 효율성을 내는 게 목표다.
네이버·삼성전자 AI 반도체 사업을 이끄는 이동수 네이버클라우드 이사는 지난 10일 한국공학한림원이 주최한 AI 반도체 웨비나에서 "초거대 AI는 결국 비용 문제로 요약된다. 오픈AI는 일일 수십억원의 비용을 들여 챗GPT를 운영 중이고, 마이크로소프트의 AI 기반 검색은 일반 검색 대비 운영비가 100~200배 더 필요할 것으로 예상된다"며 "운영 비용을 최소화하면서 초거대 AI 서비스를 제공하는 것이 곧 IT 기업들의 화두로 떠오를 것"이라고 밝혔다.
이어 "챗GPT를 포함한 생성 AI는 질문에 대한 답변을 하는 과정에서 CPU(중앙처리장치)·GPU(그래픽처리장치)보다 메모리에서 데이터를 처리하는 비중이 크다"며 "초거대 AI 모델 학습·추론 시 메모리에 부하가 걸리는 문제를 해결하려는 것이 네이버와 삼성전자가 함께 AI 반도체 개발에 나선 동기"라고 설명했다.
현재 챗GPT는 하루 1500만명 이상의 이용자가 몰리면서 메모리 부하로 인해 답변이 느려지는 문제가 생겼는데, 이 문제를 해결하지 않으면 오픈AI와 마이크로소프트도 큰 어려움에 봉착할 것이라는 게 이동수 이사의 설명이다.
그는 이렇게 메모리에 중점을 두고 설계된 AI 반도체의 대표 사례로 구글 TPU를 꼽았다. TPU1(45nm)에서 TPU4(7nm)로 업그레이드하면서 CPU(중앙처리장치), S램, D램 성능은 크게 변한 게 없는 반면 GDDR 메모리와 HBM 메모리 성능은 혁신적으로 발전했다는 것이다. 이동수 이사는 이렇게 AI 반도체에서 메모리의 중요성이 커지는 현상은 삼성전자, SK하이닉스 등 고용량 집적 메모리를 만들 수 있는 세계 1·2위 업체를 보유한 한국에 큰 기회가 될 것으로 내다봤다.
이날 행사에 함께한 박성현 리벨리온 대표는 "최적의 AI 반도체를 설계하려면 단순히 소프트웨어를 넘어 AI 알고리즘까지 이해해야 한다"며 "리벨리온은 반응속도(레이턴시)와 금융에 특화한 추론용 AI 반도체를 개발해 먼저 KT의 초거대 AI(믿음)와 AICC(인공지능콜센터) 실행에 필요한 하드웨어 인프라를 엔비디아에서 리벨리온 AI 반도체로 바꾼 후 AI 반도체를 클라우드를 통해 외부에 공개할 것"이라고 말했다.
박성현 대표는 "학습과 추론은 반도체 칩 규모(스케일)에서 차이가 있다. AI 반도체의 규모가 커지면 필연적으로 관련 개발 비용과 운영 비용(전기료)이 커질 수밖에 없다"며 국산 AI 반도체는 추론과 저전력에 집중함으로써 기업들의 AI 서비스 운영 비용을 절감하는 데 집중해야 한다는 입장을 내비쳤다.
두 전문가는 엔비디아가 97% 점유율로 독주 중인 데이터센터용 AI 반도체 시장에서 국산 AI 반도체가 점유율과 영향력을 확대할 방안도 제시했다.
이동수 이사는 "엔비디아가 AI 반도체 성능이 좋은 것은 부인할 수가 없는 사실이다. 기업 입장에서 비용을 더 내더라도 많은 서비스를 제공할 수 있는 만큼 선호도가 높다"며 "특히 초거대 AI 구현을 위한 기술 흐름이 트랜스포머 모델 중심으로 바뀌는 상황에서 (엔비디아가) 관련 생태계 구축이 가장 빨랐다"고 설명했다.
박성현 대표는 학습용 AI 반도체 시장은 당분간 엔비디아가 독주할 것으로 예상되는 만큼 국내 AI 반도체 기업은 지연시간을 단축하는 등 추론용 AI 반도체 관련 기술 경쟁력을 확보해야 한다고 강조했다. 그는 "새 제품(국산 AI 반도체)이 시장에 받아들여지려면 고객의 습관을 바꿔야 하는데, 그게 어렵다. 새 AI 반도체가 좋은 것을 알아도 관성적으로 기존 제품(엔비디아)을 쓰는 경우가 많다"며 "국산 AI 반도체가 시장에서 받아들여질 때까지 버틸 체력·자본·참을성이 필요할 것으로 본다. 초거대 AI를 포함해 AI를 개발하는 국내외 기업과 컨소시엄을 구성하는 것도 관련 수요를 확보할 수 있는 한 방법"이라고 말했다.
반도체 업계 전문가인 이종호 과학기술정보통신부 장관은 취임 후 지속해서 "AI 시대 핵심은 전력 소모량을 줄인 차세대 AI 반도체 기술에 있다"며 "저전력과 한국의 차세대 메모리 기술을 결합하면 글로벌 시장에서 유의미한 경쟁력을 확보할 수 있다"고 강조하고 있다. 이를 위해 '국산 AI 반도체를 활용한 K-클라우드 추진 계획'을 수립, 2030년까지 8262억원을 투자해서 PIM(연산 능력을 갖춘 메모리)과 극저전력 PIM 기술을 상용화하고 국내 기업이 이를 활용한 극저전력 AI 반도체를 출시할 수 있도록 지원할 방침이다. 국내 초거대 AI 및 AI 반도체 기업과 함께 초거대 AI와 AI 반도체를 유기적으로 연결할 방안도 이번 주에 논의한다.