올해 6월 미국에서 등장한 인공지능(AI) 모델 'GPT-3'가 탁월한 글쓰기 능력을 보여줬지만 이런 AI에 인간 창작자와 같은 '저작권'이 있다고 인정할 수는 없다는 분석이 나왔다.
글의 일부분인 '문장생성'에 초점을 맞춘 이 AI가 글쓰기 작업을 하기 위해 인간이 초기 조건을 지정해야 하고, 매끄러운 결과물을 얻기 위해 인간의 손을 다듬는 과정을 거쳐야 한다는 이유에서다.
글을 쓰는 GPT-3 외에도 사진, 그림, 음악, 영상 등을 만들어내는 AI가 등장해 이목을 끌고 있지만, 이와 같은 논리를 적용하면 각각의 결과물에 대한 저작권 역시 온전히 AI에 귀속된다고 볼 수는 없을 전망이다.
24일 소프트웨어정책연구소(SPRi)는 최근 발간 보고서 'SPRi AI BRIEF 인공지능 최신 동향과 시사점'을 통해 GPT-3가 작성한 글이 AI 기술의 큰 잠재력을 보여주긴 했지만 저작권을 부여하는 것은 적절치 않다는 관점을 제시했다.
GPT-3는 미국의 기업 '오픈AI'가 개발한 범용 자연어 처리 모델이다. 주어진 단어나 문장 뒤에 이어 배열될 단어를 예측한다. 그 명칭인 GPT가 '생성적 사전학습(Generative Pre-Training)'이라는 모델 개발 방식의 머릿글자를 딴 것이다.
오픈AI는 앞서 GPT와 GPT-2를 내놓고 올해 6월 GPT-3를 소개했는데, 버전을 높일 때마다 결과물의 수준을 크게 끌어올리기 위해 모델이 기존보다 훨씬 방대한 학습 데이터를 활용하고 더 정교한 계산을 수행케 하는 전략을 취하고 있다.
예컨대 GPT-2는 40GB 분량의 텍스트와 15억의 파라미터를 사용했는데, GPT-3는 570GB 분량의 텍스트와 1750억개의 파라미터를 사용했다. 파라미터는 AI 모델이 주어진 데이터를 계산함으로써 모델 내부에서 결정하는 변수들을 뜻한다.
SPRi는 "오픈AI가 개발한 범용 자연어 처리 모델인 GPT-3는 글을 생성하는데 탁월한 능력을 보유"했고 "신문 사설, 소설 작성, 의료 처방 제안, 2020년 하반기 예측, 철학적인 질의 응답 등 사례를 통해 그 성능과 파급력이 회자"됐다고 봤다.
SPRi에 따르면 영국 일간지 가디언은 GPT-3를 활용해 옵에드(op-ed) 형식으로 작성된 글을 공개해 기술의 가능성을 보여 줬다. 옵에드는 신문사의 공식 의견(사설)과 대치되는 면에 실리는 외부 기고를 지칭한다.
가디언은 GPT-3에 △500단어 내외 △쉽고 간결한 문체 △특정 주제로 작성('AI에 대해 두려워 할 것이 없는 이유') 등 조건으로 글을 생성케 했다. 논지에 어긋나거나 중복 표현을 빼는 등 편집을 거쳐 생성된 글 90%를 삭제한 뒤 게재했다.
SPRi는 GPT-3가 다양한 내용과 주장을 담은 글을 인간이 창작하는 데 도움을 줄 수 있을 것으로 기대하지만, 이를 위해 초기조건을 설정해야 하고 편집 등 사후 작업이 필요해 저작권을 갖는다고 해석하기 어렵다는 것이 중론이라고 지적했다.
SPRi는 "GPT-3는 완성된 글보다 다양한 문장 생성에 초점이 맞춰져 있기 때문에 가능성을 확대 해석하는 것은 무리"라며 "인간의 글쓰기를 대체할 것으로 예측하는 것은 시기상조이며 유용한 보조도구로 해석하는 것이 바람직"하다고 봤다.
글의 일부분인 '문장생성'에 초점을 맞춘 이 AI가 글쓰기 작업을 하기 위해 인간이 초기 조건을 지정해야 하고, 매끄러운 결과물을 얻기 위해 인간의 손을 다듬는 과정을 거쳐야 한다는 이유에서다.
글을 쓰는 GPT-3 외에도 사진, 그림, 음악, 영상 등을 만들어내는 AI가 등장해 이목을 끌고 있지만, 이와 같은 논리를 적용하면 각각의 결과물에 대한 저작권 역시 온전히 AI에 귀속된다고 볼 수는 없을 전망이다.
24일 소프트웨어정책연구소(SPRi)는 최근 발간 보고서 'SPRi AI BRIEF 인공지능 최신 동향과 시사점'을 통해 GPT-3가 작성한 글이 AI 기술의 큰 잠재력을 보여주긴 했지만 저작권을 부여하는 것은 적절치 않다는 관점을 제시했다.
오픈AI는 앞서 GPT와 GPT-2를 내놓고 올해 6월 GPT-3를 소개했는데, 버전을 높일 때마다 결과물의 수준을 크게 끌어올리기 위해 모델이 기존보다 훨씬 방대한 학습 데이터를 활용하고 더 정교한 계산을 수행케 하는 전략을 취하고 있다.
예컨대 GPT-2는 40GB 분량의 텍스트와 15억의 파라미터를 사용했는데, GPT-3는 570GB 분량의 텍스트와 1750억개의 파라미터를 사용했다. 파라미터는 AI 모델이 주어진 데이터를 계산함으로써 모델 내부에서 결정하는 변수들을 뜻한다.
SPRi는 "오픈AI가 개발한 범용 자연어 처리 모델인 GPT-3는 글을 생성하는데 탁월한 능력을 보유"했고 "신문 사설, 소설 작성, 의료 처방 제안, 2020년 하반기 예측, 철학적인 질의 응답 등 사례를 통해 그 성능과 파급력이 회자"됐다고 봤다.
SPRi에 따르면 영국 일간지 가디언은 GPT-3를 활용해 옵에드(op-ed) 형식으로 작성된 글을 공개해 기술의 가능성을 보여 줬다. 옵에드는 신문사의 공식 의견(사설)과 대치되는 면에 실리는 외부 기고를 지칭한다.
가디언은 GPT-3에 △500단어 내외 △쉽고 간결한 문체 △특정 주제로 작성('AI에 대해 두려워 할 것이 없는 이유') 등 조건으로 글을 생성케 했다. 논지에 어긋나거나 중복 표현을 빼는 등 편집을 거쳐 생성된 글 90%를 삭제한 뒤 게재했다.
SPRi는 GPT-3가 다양한 내용과 주장을 담은 글을 인간이 창작하는 데 도움을 줄 수 있을 것으로 기대하지만, 이를 위해 초기조건을 설정해야 하고 편집 등 사후 작업이 필요해 저작권을 갖는다고 해석하기 어렵다는 것이 중론이라고 지적했다.
SPRi는 "GPT-3는 완성된 글보다 다양한 문장 생성에 초점이 맞춰져 있기 때문에 가능성을 확대 해석하는 것은 무리"라며 "인간의 글쓰기를 대체할 것으로 예측하는 것은 시기상조이며 유용한 보조도구로 해석하는 것이 바람직"하다고 봤다.