[강기자의 기술 돋보기] 모습 드러낸 구글 '제미나이'...MS-오픈AI, 오픈소스 진영과 생성 AI 삼파전

2023-12-08 06:00
  • 글자크기 설정

17개 AI 테스트에서 GPT-4보다 우수

울트라·프로·나노 등 세 가지 모델 제공

엔비디아 대신 구글 AI 반도체로 학습

오픈AI는 AI 운영비 절감...메타는 차기 모델 내년 2분기 예상

사진구글
구글 초거대언어모델 '제미나이' [사진=구글]

구글·딥마인드가 차세대 초거대언어모델(LLM) '제미나이(Gemini, 쌍둥이자리)'를 공개하면서 생성 인공지능(AI) 업계는 마이크로소프트(MS)·오픈AI, 구글·딥마인드, 메타(페이스북)·오픈소스 등이 시장 주도권을 두고 치열하게 겨루는 삼파전이 펼쳐질 전망이다. 

6일(현지시간) 구글은 공식 블로그를 통해 차세대 멀티모달 AI 제미나이를 공개했다. 멀티모달이란 언어만 이해해서 답변하는 LLM과 달리, 사람처럼 이미지·영상·음성도 인식하고 관련한 답변을 제공하는 AI를 말한다. LLM 근간이 되는 트랜스포머 기술의 최종 지향점이다.
제미나이는 구글이 구글 리서치와 딥마인드로 이원화돼 있던 AI 연구개발 조직을 딥마인드로 통합한 후 처음 선보이는 AI다. 처음 트랜스포머 기술을 개발했음에도 LLM 상용화가 늦어져 마이크로소프트·오픈AI에 뒤처진다는 평가를 받은 구글이 시장 주도권을 되찾고자 야심 차게 추진하는 프로젝트다. 오픈AI가 이사회와 경영진 간 의견대립으로 내홍을 겪는 동안 앞으로 치고 나가려는 구글의 야심이 엿보인다.

제미나이의 가장 큰 특징은 오픈AI의 최신 LLM 'GPT-4'와 비교해 언어뿐 아니라 이미지·영상·음성 생성 분야에서도 더 뛰어난 능력을 갖추고 있는 점이다. 구글은 공신력 있는 18개의 AI 벤치마킹 테스트를 진행한 결과 '제미나이 울트라'가 17개 테스트에서 GPT-4보다 우수했다고 강조했다.

제미나이는 △울트라 △프로 △나노 등 세 가지 모델로 구성된다. 제미나이 울트라는 복잡한 작업을 빠르게 처리할 수 있는 초거대 AI다. 제미나이 프로는 기업의 다양한 비즈니스에 맞게 고쳐 쓸 수 있는 LLM이다. 제미나이 나노는 스마트폰 등 개별 단말기에서 실행할 수 있는 소형언어모델(sLLM)이다. 구글은 3개 모델의 매개변수 규모를 따로 공개하지 않았다. LLM 성능과 AI 서비스 상황에 맞춰 매개변수 규모를 조절하기 위함으로 풀이된다.

구글에 따르면 제미나이가 가장 강점을 보이는 분야는 코딩이다. 개발자 요청에 따라 파이선, 자바, C++, Go 등 주요 프로그래밍 언어를 이해하고 최적의 프로그래밍 코드를 짜준다. 구글은 제미니를 활용해 코딩 능력이 경쟁 생성 AI보다 85% 우수한 '알파코드2'를 곧 공개할 방침이다. 전작 '알파코드1'과 비교해도 코딩 능력이 50% 더 높다.
 
사진구글
[사진=구글]

구글은 제미나이가 엔비디아 AI 반도체 대신 구글이 자체 개발한 AI 반도체팜 'TPU4'와 'TPU5e'를 활용해 데이터를 학습했다고 강조했다. 이는 구글의 AI 반도체 설계 능력이 엔비디아 등과 비교해 결코 떨어지지 않으며, 구글클라우드를 통해 다양한 학습·추론용 AI 반도체를 제공할 수 있음을 보여주려는 포석이다.

AI 업계에선 지금까지 MS·오픈AI에 끌려다니는 모습을 보였던 구글이 마침내 '한방' 먹이는 데 성공했다고 평가한다. 언어·이미지 능력은 제미나이 울트라와 GPT-4 간 차이가 크지 않지만, 영상·음성 능력은 꽤 큰 차이(6~10%)가 있다. 이는 유튜브라는 방대한 데이터베이스를 보유한 구글이 자사 강점을 적극 활용하기 시작했기에 가능한 일로 풀이된다.

구글 반격에 MS·오픈AI와 메타·오픈소스 진영이 어떻게 대응할지도 관전 포인트다. 일단 GPT-4로 충분한 LLM 성능을 확보한 MS·오픈AI 진영은 매개변수를 확대한 차세대 AI 모델 개발보다 'AI 운영비 절감(모델 양자화)'과 '할루시네이션(환각현상) 최소화'에 집중할 전망이다. 기업에 생성 AI를 판매함으로써 본격적으로 수익을 내려는 전략이다.

다만 제미나이가 성능과 확장성을 바탕으로 시장 점유율을 확대하면 기술 격차를 보여주기 위해 현재 오픈AI 사내에서 개발 중인 초기 일반인공지능(AGI)과 수학 특화 LLM을 외부에 공개할 가능성도 점쳐진다. 현재 GPT-4와 제미나이는 모두 수학 연산에 약한 문제를 가지고 있다.

메타는 오픈소스 LLM '라마2'보다 수배 더 뛰어난 성능의 차세대 LLM '라마3' 개발을 위한 데이터 학습을 시작했다. 모델 학습에 필요한 시간 등을 고려하면 라마3는 내년 2분기 이후 공개될 전망이다. 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기