[테크인트렌드] AI 시대 최대 난제는 '전력 공급'
2024-11-05 05:01
AI가 요구하는 데이터센터, 기존 데이터센터와 달라
데이터센터는 전통적으로 데이터를 저장하는 서버나 네트워크 회선 등을 제공하는 건물 혹은 시설 등을 일컫는다. 정보기술(IT) 장비를 모아 전문적으로 관리하는 물리적인 빌딩을 뜻한다. 인터넷 서비스 가동을 위한 필수 구성 요소다.
AI 시대에 요구되는 데이터센터는 기존 데이터센터와 다르다. AI 데이터센터에는 훨씬 강력한 컴퓨팅 파워가 필요하다. AI 모델 개발에는 상당한 연산량과 시간이 동반되기 때문이다.
생성형 AI와 초거대언어모델(LLM)은 심층신경학습망에 기반한 전이학습 모델을 활용한다. 심층신경학습망은 인공신경망을 통해 데이터 특성을 파악하고 새로운 데이터가 주어졌을 때 예측해낼 수 있는 AI 기술 중 하나다. 흔히 딥러닝이라고 알려져 있다.
딥러닝은 많은 파라미터(매개변수를 통제하기 위한 값)와 데이터가 필요해 상당한 연산량과 시간이 소요된다. 생성형 AI는 그 수와 규모가 상상을 초월할 만큼 많다. 예컨대 챗GPT의 기반이 되는 GPT-3.5는 약 1750억개의 매개변수를 가진 것으로 알려져 있다. 학습을 위해 사용한 학습 데이터의 양 또한 45테라바이트(TB)로 천문학적이다. 이러한 이유로 AI 데이터센터는 복잡한 계산을 수행하도록 설계된 강력한 고성능 컴퓨팅(HPC) 시스템을 갖춰야 한다.
AI 모델 개발을 위해서는 고성능 GPU의 수요도 지속 증가할 수밖에 없다. 고성능 범용 GPU는 작업 속도가 빠르지만, 일반적인 서버 장비보다 전력 사용량과 발열량이 높다는 단점을 갖고 있다. 이는 랙(장비 보관 틀) 당 전력 사용량 증가로 직결된다. 일례로 엔비디아의 H100 GPU클러스터는 700개의 랙을 사용하며, 31메가와트(MW)의 전력을 소모하는데 이때 랙당 전력 사용량은 44킬로와트(KW)다.
결국 AI 데이터센터의 핵심 과제는 GPU 서버가 안정적으로 동작할 수 있는 전력 공급이 가능한지 여부라고 봐도 틀림없다.
급증하는 전력 소비에 ‘컨스털레이션 에너지’ 수혜 지목
이러한 이유로 데이터센터 인프라 중 2026년까지 성장률이 가장 높게 기대되는 부문으로 ‘전력’과 ‘열관리’ 등이 지목되고 있다. 이에 전력‧열관리에 강점을 가진 기업들의 빠른 성장을 점치는 시각도 늘고 있다.
미국의 원자력 발전 매출 1위 기업인 ‘컨스털레이션 에너지’가 대표적이다. 이 회사는 원자력, 천연가스, 풍력, 태양광 등 다양한 에너지원에서 전력을 생산하는 기업이다. 미국 전역에 걸쳐 전력을 공급하며, 안정적인 에너지 공급을 보장하고 있다. 현재 재생 가능 에너지 프로젝트를 수행 중이며 풍력, 태양광, 수력 등 재생 가능 에너지 프로젝트를 추진해 청정에너지를 확대하고 있다.
냉각 시스템 기업도 반사이익을 누릴 가능성이 크다. AI 데이터센터에서 주목받는 냉각 시스템은 공기보다 열전도율이 높은 물을 쓰는 수랭식이다.
데이터센터 전원 및 냉각 서비스 1위 업체인 ‘버티브 홀딩스’가 대상 기업이다. 버티브 홀딩스는 수랭식 기술을 보유하고 있는 회사다. 수랭식 기술에 이어 전력효율이 높은 액침 냉각 기술 개발에서도 남들보다 앞서 있다는 평가를 받는다.
이외에도 송전‧배전 설비 기업인 ‘이튼 코퍼레이션’, 네트워크 고대역폭 설비 1위 기업 ‘아리스타 네트웍스’, ‘데이터센터 공조시스템 기업 ‘트레인 테크놀로지’ 등이 수혜 기업으로 지목된다.