카카오브레인, 이미지 인식해 텍스트로 답하는 '허니비' 공개

2024-01-19 09:18
  • 글자크기 설정
카카오브레인이 공개한 멀티모달 언어모델MLLM 오픈소스 ‘허니비’ 사진카카오브레인
카카오브레인이 공개한 멀티모달 언어모델(MLLM) 오픈소스 ‘허니비’. [사진=카카오브레인]
카카오브레인이 자사가 개발한 멀티모달 언어모델(MLLM) 오픈소스 ‘허니비(Honeybee)’를 코드 사이트인 ‘깃허브(Github)’에 공개했다.
 
카카오브레인은 멀티모달 언어모델 오픈소스 ‘허니비’를 공개했다고 19일 밝혔다.
 
허니비 공개는 이미지와 대규모 언어모델을 연결할 수 있는 새로운 모듈을 제안하기 위해 이뤄졌다. 현재 멀티모달 언어모델에 대한 연구는 공개된 모델 수가 적고, 학습 방법 역시 자세히 공개되지 않아 개발이 어려운 상황이다.
 
이에 카카오브레인은 멀티모달 언어모델의 발전에 기여하고자 자체 개발한 ‘허니비’의 소스코드를 공개하기로 결정했다.
 
MLLM은 이미지와 명령어(프롬프트)를 입력하면, 텍스트로 답변하는 모델로 텍스트로만 입⋅출력하는 대규모 언어모델의 확장 형태다. 이미지와 텍스트 모두 입력 가능해 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있다. 예컨대 허니비에 ‘농구 경기 중인 두 명의 선수’ 이미지와 함께 "왼쪽 선수는 몇 번 우승했나요?"라는 질문을 영어로 입력하면, 이미지 내용과 질문을 종합적으로 이해하고 답변을 생성해낸다.
 
허니비는 각종 성능 실험에서 타사 MLLM 대비 최고 성능을 달성했다. 지각 능력과 인지 능력을 평가하는 ‘MME’ 벤치마크에서는 2800점 만점 중 1977점이라는 높은 점수를 획득했다.
 
관련 논문인 ‘허니비: 멀티모달 LLM을 위한 로컬리티 강화 프로젝터’는 지난해 논문 공개 사이트 ‘아카이브’에 게재됐다.
 
카카오브레인은 향후 허니비가 효과적인 교육 및 학습 보조 도구로 사용될 것으로 전망하고 있다.
 
김일두 카카오브레인 각자 대표는 “허니비 모델의 추론을 가능하게 하는 코드도 깃허브에 공개했다”며 “허니비를 활용한 각종 서비스 확장을 고려 중”이라고 밝혔다. 이어 “더욱 발전된 AI 모델 확보를 위해 끊임없이 연구⋅개발할 것”이라고 덧붙였다.
 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기