[테크인트렌드] 성능·경제성 다 잡은 AI '엑사원 3.0'…구광모의 이유 있는 자신감

2024-08-20 06:00
  • 글자크기 설정

구 회장 집중 투자 힘입어 LG AI연구원, AI 원천기술 연구 성과

국내외 데이터 6000만건 이상 학습…산업현장 적용 가능 수준

경량화로 추론 처리시간·메모리 사용량·구동비↓ 안전성은↑

학계·스타트업 등 활용 지원…학습 데이터·파트너십 확대 계획

그래픽아주경제 그래픽팀
구광모 LG그룹 회장 [그래픽=아주경제 그래픽팀]
LG가 자체 개발한 인공지능(AI) 언어모델 '엑사원(EXAONE) 3.0'을 선보이는 동시에 경량 모델을 누구나 사용할 수 있도록 오픈소스로 공개했다. 국내 1호 오픈소스 AI 언어모델이다. 수년간 많은 비용을 투입해 개발한 소프트웨어를 과감하게 공개할 수 있었던 건 구광모 LG그룹 회장 주도로 세워진 LG AI연구원의 AI 기술 경쟁력에 대한 자신감 때문이다.

19일 관련 업계에 따르면 LG는 그룹 AI 싱크탱크인 LG AI연구원을 중심으로 AI 관련 연구개발(R&D)에 집중하고 있다. 2020년 12월 문을 연구원은 LG그룹 차원의 최신 AI 원천기술 확보와 AI 난제 해결 역할을 수행하는 AI 전담 조직이다.

LG AI연구원 개원을 이끈 건 구 회장이다. 구 회장은 취임 후 '선택과 집중' 전략을 통해 AI를 비롯해 바이오(Bio)와 클린테크(Cleantech)에 집중 투자했다. AI를 글로벌 시장 미래 먹거리이자 그룹 핵심 사업으로 점찍은 것이다.

구 회장은 연구원 출범 당시 "LG가 추구하는 AI 목적은 기술을 넘어 고객의 삶을 더 가치 있도록 돕는 것에 있다"며 "AI연구원이 그룹을 대표해 기업 스스로의 변화와 혁신 방법을 발전시켜 나가는 핵심적인 역할을 해줄 것"이라고 말했다. 특히 "최고 인재와 파트너들이 모여 세상의 난제에 마음껏 도전하면서 글로벌 AI 생태계 중심으로 발전해 가도록 응원하고 힘을 보태겠다"며 투자를 아끼지 않겠다고도 했다.
 
그래픽아주경제 그래픽팀
그래픽=아주경제 그래픽팀
 
LG, AI연구원 중심으로 AI 기술 개발 몰두

구 회장의 전폭적인 지원을 받은 LG AI연구원은 AI 원천기술 연구에 속도를 냈다. 가시적인 성과도 속속 내놓았다. 초거대언어모델(LLM) 엑사원이 대표적이다. 엑사원은 '엑스퍼트 AI 포 에브리원(EXpert Ai for everyONE)'에서 따온 말이다. '인간을 위한 전문가 AI'를 뜻한다. EX는 전문가라는 뜻 외에도 10의 18승, 즉 100경(京)을 뜻하는 접두어 'EXA'라는 의미도 갖고 있다.

LG AI연구원은 출범 1년 만인 2021년 12월 첫 번째 AI LLM '엑사원 1.0'을 발표했다. 2023년 7월에는 '엑사원 2.0'을 선보인 데 이어 이달 초에는 엑사원 3.0을 공개했다.

엑사원은 공개 때마다 화제를 모았다. 3년 전 나온 엑사원 1.0은 6000억개 말뭉치와 2억5000만개 이미지를 학습한 LLM이다. 당시 국내 최대인 약 3000억개 파라미터(매개변수)를 보유했다. 오픈AI의 'GPT-3'(1750억개 파라미터)보다 2배가량 많은 수치다.

파라미터는 AI가 딥러닝으로 학습한 데이터가 저장되는 곳으로, AI가 정보를 학습하고 기억하도록 연결해 주는 역할을 한다. 인간의 뇌에서 정보를 배우고 기억하는 시냅스와 유사하다. 파라미터가 많을수록 AI가 더 정교한 학습을 할 수 있다고 알려져 있다. LG AI연구원은 2021년 5월부터 시냅스와 유사한 인공 신경망의 파라미터를 13억개에서 130억개, 390억개, 1750억개로 단계적으로 키우며 관련 연구를 해왔다.

엑사원 1.0은 GPT-3나 앞서 나온 국내 초거대 AI 모델들과 달리 원어민 수준으로 한국어와 영어를 이해하고 구사하는 이중언어 AI다. 전문 지식 자료 상당수가 영어로 되어 있는 점을 고려해 영어와 한국어를 동시에 이해하고 답변할 수 있는 이중언어 모델로 개발한 것이다. 특히 언어는 물론 이미지·영상 등 사람의 의사 소통과 관련된 다양한 정보를 모두 이해하는 멀티모달 모델이어서 큰 관심을 받았다. 엑사원 등장 전까지 멀티모달 초거대 AI 모델은 오픈AI의 '달리(DALL·E)'가 유일했다.

지난해 7월 공개한 '엑사원 2.0'은 전문 문헌 4500만여 건과 이미지 3억5000만장을 학습했다. 기존 모델보다 4배 이상 늘어난 수치다. 이 덕분에 기존 모델과 성능은 동일하면서도 추론 처리 시간은 25%, 메모리 사용량은 70% 줄었다. 이는 AI 구동에 들어가는 비용을 78%가량 절감하는 효과를 가져왔다.

배경훈 LG AI연구원장은 "LG AI연구원은 실제 산업 현장에 적용될 수 있는 수준의 '전문가 AI'를 개발하는 데 집중해 왔다"고 했다. 그러면서 "성능과 비용이라는 두 가지 축 사이에서 사용자가 더 잘 활용할 수 있는 모델을 만들고, 실제 산업 현장에 적용 가능한 전문가 수준의 AI를 개발하는 성과를 이뤘다"고 말했다.
 
구광모 LG 대표(왼쪽)가 지난 6월 17일(현지시간) 미국 실리콘밸리에 위치한 로봇 개발 스타트업 '피규어 AI'에 방문해 휴머노이드 로봇을 살펴보고 있다. [사진=LG]
구광모 LG그룹 회장(왼쪽)이 지난 6월 17일(현지시간) 미국 실리콘밸리에 위치한 로봇 개발 스타트업 '피규어 AI'에 방문해 휴머노이드 로봇을 살펴보고 있다. [사진=LG]
 
오픈소스 '엑사원 3.0'···성능·경제성 갖춰

LG AI연구원이 이달 초 공개한 '엑사원 3.0' 기존 엑사원에서 한 단계 더 진화한 모델로, 성능과 경제성을 모두 잡은 생성형 AI로 불린다.

엑사원 3.0은 활용 목적에 맞춰 온디바이스 AI에 들어가는 초경량부터 전문 분야용 고성능까지 다양한 모델로 개발됐다. LG는 여러 모델 가운데 7.8B를 오픈소스 형태로 대중에 공개했다. 7.8B은 매개변수 78억개, AI 언어로 불리는 토큰(학습 데이터양) 수는 8조개인 소형언어모델(sLM) AI다

이 모델은 특허와 소프트웨어 코드, 수학, 화학 등 국내외 전문 분야 데이터 6000만건 이상을 학습했다. AI 모델에 의도적으로 공격을 시도해 기술과 서비스 취약점을 검증하고, 이를 보완하고 개선하는 레드티밍도 수행해 안전성과 신뢰성을 높였다. 

AI 관련 골칫거리로 꼽히는 과도한 전력 사용 문제도 해결했다. 경량화·최적화 기술 연구에 집중해 기존보다 성능은 높이면서도 모델 크기는 100분의 3으로 줄이는 데 성공했다. 미국 전력연구소(EPRI)가 지난 5월 발간한 '인텔리전스 강화: AI와 데이터센터 에너지 소비 분석' 보고서를 보면 구글 1회 검색에 필요한 전력은 0.3와트시(Wh)지만 챗GPT는 2.9Wh를 소모한다. 이미지·비디오·동영상을 생성하는 멀티모달 AI인 '블룸'은 한번에 4Wh를, 생성 AI 기능을 더한 구글 이용 땐 8.9Wh를 사용한다.

엑사원 3.0 7.8B 모델은 전작인 엑사원 2.0보다 추론 처리 시간은 56%, 메모리 사용량은 35% 각각 줄고 구동에 들어가는 비용은 72% 감축했다. 엑사원 3.0 구동 비용은 LG AI연구원이 처음 공개한 AI 모델인 엑사원 1.0 대비 6% 수준이다. 3년간 AI 모델 경량화 기술 R&D에 집중하고 비용 효율화를 달성하고자 집중한 결과다. 

영어와 한국어 모두 다른 AI 언어모델보다 우수한 성능을 갖췄다. LG AI연구원이 7.8B를 오픈소스로 공개하면서 함께 발표한 기술 보고서를 보면 총 4개 벤치마크(MT벤치·알파카에발2.0·아레나하드·와일드벤치)에 대한 평가 결과 모든 벤치마크에서 글로벌 빅테크 기업 AI 제품들보다 성능이 우수했다.

메타(옛 페이스북)가 개발한 오픈소스 AI '라마 3.1 8B', 구글이 최첨단 성능을 갖췄다고 자부한 '젬마 2 9B' 등도 가볍게 제쳤다. 실제 사용성·코딩·수학 영역 등 13개 벤치마크 점수 순위에서는 1위를 차지했다. 한국어 성능도 라마 3.1 8B·젬마 2 9B 등을 앞지르며 1위에 올랐다. 추론 성능은 젬마 2 9B보다는 다소 낮았지만 미스트랄AI가 개발한 '미스트랄 7B'와 라마 3.1 8B보다는 우수하게 나타났다.

배 원장은 "엑사원 3.0 7.8B는 성능과 경제성 측면에서 가장 활용도가 높은 모델"이라고 소개했다. 특히 "국내에서는 처음으로 자체 개발한 AI 모델을 오픈소스로 공개한 것은 학계와 연구기관, 스타트업 등이 최신 생성형 AI 기술을 활용할 수 있게 하려는 것"이라며 "개방형 AI 연구 생태계 활성화와 더 나아가 국가 AI 경쟁력을 높이는 데 이바지하겠다"고 말했다.
 
LG AI연구원이 개발한 챗엑사원의 지시문 추천 기능 자료LG
LG AI연구원이 개발한 '챗엑사원'의 지시문 추천 기능 [자료=LG]
 
엑사원 경쟁력 발판 삼아 글로벌 상용화 시동

시장 반응은 뜨겁다. 엑사원 3.0 경량 모델은 글로벌 최대 오픈소스 커뮤니티인 '허깅페이스'에서 지난 15일 기준 인기 상위 5위권에 이름을 올렸다. 구글·마이크로소프트(MS) 등 빅테크 모델들도 제쳤다.

LG AI연구원은 올 연말까지 법률·바이오·의료·교육·외국어 등 분야를 확장해 학습 데이터 양을 1억건 이상으로 늘려 엑사원 3.0 성능을 한층 더 끌어올릴 계획이다.

엑사원의 본격적인 상용화에도 나선다. LG AI연구원은 하반기부터 LG 계열사들과 함께 각 사 제품·서비스에 엑사원 3.0을 덧입힐 예정이다.

LG AI연구원은 엑사원 3.0을 개발하면서 활용 용도에 따라 모델 크기를 다르게 설계했다. 서버나 클라우드 연결하지 않고 모바일기기가 자체적으로 정보를 처리하는 온디바이스 AI에는 엑사원 3.0 초경량 모델을 사용한다. 범용 목적 제품이나 서비스에는 경량, 전문적이거나 특정 분야에 특화한 제품에는 고성능 모델을 쓴다. LG 계열사들은 각 사가 보유한 데이터로 엑사원 3.0을 최적화(파인튜닝)하고, 자사가 운영하는 사업·제품·서비스 특성에 맞게 이를 적용한다는 계획이다.

엑사원 3.0과 함께 공개한 '챗엑사원(ChatEXAONE)' 고도화·상용화도 추진한다. 챗엑사원은 엑사원 3.0을 기반으로 만든 생성형 AI 서비스다. 실시간 검색부터 요약, 번역, 데이터 분석, 보고서 작성 등 기업 업무에 필요한 기능을 갖췄다.

실시간 웹 검색 결과를 활용하는 검색증강생성(RAG) 기술을 적용해 사람이 입력한 지시문(프롬프트) 맥락을 파악한 뒤 최신 정보를 반영한 답변을 제공한다. 사람이 일상적으로 쓰는 자연어 입력만으로 파이썬·자바 등 22개 프로그래밍 언어, 데이터베이스 관리에 활용할 수 있는 구조화된 질의 언어(SQL) 쿼리까지 만들어 준다.

현재 LG 임직원을 대상으로 베타 서비스 중이다. 이를 바탕으로 기업용 AI 시스템에 필요한 모든 구성 요소를 구축하고 활용 사례를 확보하면서 고도화한다는 계획이다. 이후 기업 요구 사항과 전문 분야에 따른 맞춤형 서비스를 제공할 예정이다.

LG는 엑사원 기술력을 바탕으로 글로벌 파트너십 확대 논의에도 나선다. 배 원장은 "실제 산업 현장에서 활용할 수 있는 AI를 만드는 것이 중요하다"며 "특화한 성능과 경제성을 갖춘 엑사원으로 LG 계열사, 외부 기업·기관과 파트너십을 강화해 나갈 계획"이라고 말했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기