고개 드는 'AI 회의론'…sLLM 대안으로 지목

2024-10-02 06:00
  • * AI기술로 자동 요약된 내용입니다. 전체 맥락과 내용을 이해하기 위해서는 기사 본문 전체를 보시길 권장합니다

    인공지능(AI)이 급성장 중인 가운데, 최근 일부 전문가들 사이에 회의론이 제기되면서 그 대안으로 소형언어모델(sLLM)이 주목받고 있다.

    지리‧과학‧언어 등 특정 분야에 특화된 sLLM은 범용 LLM 못지않은 성능을 발휘해 맞춤형 AI 솔루션을 개발하는데 활용할 수 있다.

    기업 입장에선 목적에 맞는 sLLM을 선택해 비용부담을 줄이고 동시에 효율적인 생성형 AI 확장 전략을 펼칠 수 있다.

  • 글자크기 설정
d
 
인공지능(AI)이 급성장 중인 가운데, 최근 일부 전문가들 사이에 회의론이 제기되면서 그 대안으로 소형언어모델(sLLM)이 주목받고 있다. 비용부담은 최소화하면서 지속 가능한 방식으로 생성형 AI 확장을 이끌 수 있다는 점에 거는 기대감이 크다. 궁극적으론 AI 도입 장벽을 낮추는 효과도 창출할 수 있을 것으로 보고 있다.
 
1일 정보기술(IT) 업계에 따르면, 글로벌 투자은행 골드만삭스는 최근 보고서를 통해 생성형 AI에 대해 회의적인 평가를 내렸다. 불과 1년 전 AI와 관련해 낙관적인 견해를 내비쳤던 것과 상반되는 태도다. 당시 골드만삭스는 AI가 전 세계 일자리 3억 개를 자동화하고 10년 동안 세계 경제 생산량을 7% 증가시킬 것으로 봤다.
 
골드만삭스의 태도 변화를 이끈 건 생성형 AI의 효율성이다. 여기에 투입되는 비용에 비해 수익성과 생산성이 떨어진다고 봤다. 업계에선 이러한 단점을 완화할 대체 수단으로 sLLM을 지목하고 있다.
 
지리‧과학‧언어 등 특정 분야에 특화된 sLLM은 범용 LLM 못지않은 성능을 발휘해 맞춤형 AI 솔루션을 개발하는데 활용할 수 있다. 기업 입장에선 목적에 맞는 sLLM을 선택해 비용부담을 줄이고 동시에 효율적인 생성형 AI 확장 전략을 펼칠 수 있다.
 
이러한 이유로 미국 시장조사 업체 밸류에이츠는 sLLM 시장 규모가 2022년 51억8000만달러(약 7조1400억원)에서 2029년 171억8000만달러(약 23조6000억원)까지 성장할 것으로 전망했다.
 
국내외 AI 기업들도 sLLM에 집중하고 있다. 글로벌 빅테크 업체인 IBM은 자체 AI 모델 IBM 그래니트 중 sLLM에 해당하는 ‘그래니트-8B’로 시장을 공략하고 있다. 그래니트-8B는 코드 생성‧설명‧수리 등의 영역에서 탁월한 성능을 보인다. AI 모델 성능 평가 도구인 ‘휴먼이발팩’으로 코드 생성‧수리‧설명‧편집‧번역 등 다양한 작업을 실험한 결과, 파이썬‧자바스크립트‧자바와 같은 인기 프로그래밍 언어에서 우수한 성과를 거뒀다.
 
그래니트-8B보다 크기가 2배 이상 큰 모델보다도 생성‧수리‧설명에서 모두 높은 수준의 성능을 구현했다. 대학입학표준시험(SAT)과 같은 수학적 추론에서도 대부분의 최신 모델보다 뛰어난 성능을 달성하며 효율성을 입증했다.
 
네이버클라우드는 최근 자사의 경량 모델 '하이퍼클로바X 대시(HCX-DASH)’를 기반으로 미래에셋증권의 온프레미스 환경에 특화한 sLLM 구축을 완료했다. 온프레미스는 기업이 자체적으로 IT 인프라(환경)를 구축하는 걸 뜻한다. 네이버클라우드는 공공‧금융 분야 기업들이 보안 문제로 클라우드 기반 생성형 AI 도입을 꺼리는 점에 주목해 해당 사업을 시작했다. 구축형 LLM은 기업 자체 IT 인프라에서 운영되는 만큼, 보안 관련 위험이 적다.
 
네이버클라우드는 HCX-DASH 모델과 함께 미래에셋증권이 보유한 데이터를 학습시킬 수 있는 기술 등을 제공했다. 미래에셋증권은 이를 기반으로 사내 데이터를 학습시켜 금융 업무에 최적화된 sLLM을 구축했다.
 
플리토의 통번역 서비스 ‘챗 트렌스레이션’도 영어‧중국어‧일본어를 포함한 총 11개 언어의 sLLM으로 설계됐다. 이 서비스는 AI 번역 엔진과 음성 문자 변환 기술을 기반으로 대화 문맥과 뉘앙스를 반영한 정확한 번역 결과를 제공한다. AI가 인식하기 어려운 관광지 등 고유명사도 지속 학습해 번역 품질을 고도화했다.
 
아카쉬 파틸 스탠포드 대학 박사는 “sLLM은 일반적으로 LLM보다 더 작고 효율적으로 설계돼 더 적은 수의 매개 변수를 포함하고 있다”며 “이는 성능 저하를 의미하지 않으며, 오히려 생산 자원이 제한된 환경에서 더 빠른 처리 속도와 낮은 계산 비용을 가능하게 한다”고 설명했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기