[AI업계 9월 동향] ② 가짜뉴스조차 진짜처럼 만드는 AI 기술 'GPT-3'... "진보 아니면 재앙?"

2020-09-07 08:02
  • 글자크기 설정

사람처럼 문장 만드는 GPT-3... 가짜뉴스·스팸메일 살포에 악용될 수 있어

사람의 지능과는 구현 방법이 달라, 성능에 대한 지나친 해석 경계

비영리 인공지능(AI) 개발재단인 오픈AI가 인간과 흡사한 글을 작성하는 생성적 사전학습(GPT)의 세 번째 버전인 GPT-3를 공개함에 따라 AI 발전이 인간의 삶을 위협할 수 있다는 위기론이 제기되고 있다.

7일 소프트웨어정책연구소(SPRi)에 따르면, 생성적 사전학습 모델인 GPT-3는 언어를 통계적으로 표현하는 것을 목표로 하며, 특정 단어가 다른 단어를 따르는 확률을 분석해 문장을 완성하는 기능을 갖추고 있다.

예를 들어, GPT-3는 '빨간''이라는 단어 뒤에 '사과', '장미', '자동차' 등 특정 명사가 따를 확률을 계산해서 이를 토대로 문장을 완성한다.

오픈AI에 따르면, GPT-3 개발을 위해 1750억개의 모수로 구성된 모델을 45TB(테라바이트) 용량의 텍스트 데이터와 대규모 컴퓨팅 인프라를 활용해 학습을 진행했다. 이는 이전 모델인 GPT-2보다 100배 이상 커진 규모다.

AI 업계에선 범용 자연어 처리 모델인 GPT-3가 상용화되면 특정 문장을 작성한 주체가 AI인지 사람인지 구분하기 어렵게 될 것으로 보고 있다. 이에 사람의 지능에 가까워진 AI가 '진보'인지 '재앙'인지에 대한 논란이 심화되고 있다.

대다수의 AI 연구자는 GPT-3가 AI가 대규모 데이터를 분류하고 학습할 수 있다는 것을 증명함으로써 향후 AI 기술의 발전 가능성을 보여준다고 주장하고 있다. GPT-3는 향후 클라우드를 활용한 '서비스형(as a Service)'으로 제공될 가능성이 크며, 사람과 단순 질의응답 등 의사소통이 필요한 분야에 널리 활용될 것으로 기대한다는 게 이들의 입장이다.

반면 일각에선 GPT-3가 우수한 성능을 보여준 것은 사실이지만, 기존 AI 개발 방법론을 양적으로 확대한 것에 불과하며 사람의 지능과는 그 구조가 본질적으로 다른 만큼 과도하게 기대하는 것은 금물이라는 목소리를 내고 있다.

샘 알트먼 오픈AI 최고경영자는 "GPT-3는 사람의 지능을 구현하기 위한 과정상에 있는 결과물이며, 아직도 많은 단점이 있어 GPT-3 자연어 처리 능력을 두고 지나치게 확대해석하는 것은 금물"이라고 말했다. GPT-3의 대표적인 단점으로는 모든 자연어 처리 과정에 있어 모두 최고 성능을 내는 것은 아니며, 특정 결과가 어떻게 나온 것인지 알고리즘을 해석할 수 없는 인공신경망(딥러닝) 특유의 한계가 여전히 존재하는 것이 꼽힌다.

AI 업계에선 GPT-3를 변형한 모델을 활용해 가짜뉴스, 가짜보고서, 스팸메일 등을 자동으로 작성·배포하는 악의적인 활용법이 나오는 것을 경계하고 있다. 이에 따르면, GPT-3는 인공신경망의 수많은 성공사례 중 하나이며, 악의적인 활용에 대한 대응책이 필요하다.

SPRi 관계자는 "GPT-3는 문장을 생성하는 능력이 사람에 버금가는 수준이라 그 가능성을 두고 다양한 확대해석이 나오고 있지만, 모든 언어 지능에서 우월한 성능을 보이는 것은 아니다. 적대적 생성 신경망(GAN)을 활용한 딥페이크(AI 가짜영상)가 문제가 되는 것처럼 GPT-3를 악용한 거짓 정보 배포가 향후 문제로 떠오를 수 있는 만큼 정부 차원에서 관련된 대응책을 마련해야 한다"고 설명했다.
 

[사진=게티이미지뱅크 제공]


©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기