챗GPT 개발사 오픈AI가 연구 논문과 과제용 에세이를 작성할 때 챗GPT를 사용했는지 확인할 수 있는 기술을 개발했으나 이를 공개하지 않고 있다고 월스트리트저널(WSJ)이 4일(현지시간) 보도했다.
WSJ는 소식통을 인용해 오픈AI가 내부에서 2년간 이런 문제로 논쟁을 벌였고, 약 1년 전부터 출시될 준비를 해온 결과 현재는 "버튼만 누르면" 사용이 가능한 상태라고 전했다.
오픈AI는 이 '오용 방지' 기능 공개 여부를 놓고 지난 2년간 내부 논쟁을 해온 것으로 알려졌다. '투명성'과 '더 많은 사용자 유치' 사이에 고민을 거듭했다. 오픈AI가 챗GPT를 자주 쓰는 이용자를 대상으로 실시한 설문조사 결과 응답자 3분의1은 부정행위 감지 기술 도입 시 챗GPT를 쓰지 않을 수 있다고 답했다.
오픈 AI는 또 다른 사유로 '타 언어권에 대한 오해'를 들었다. 이 워터마킹 기술은 영어에 특화된 터라 다른 언어로 번역된 글 내용에서 타 언어권 사용자들이 억울하게 부당 사용을 했다고 의심받을 수 있어서다. 다만 일부 학교에서는 학생들의 AI 부정행위를 막고자 이 기술 공개를 원하고 있다고 WSJ는 보도했다.
비영리 단체인 민주주의기술센터의 최근 조사에 따르면 학생들이 AI를 이용해 과제를 했다고 생각하는 미국 중·고등학교 교사는 1년 전보다 17%포인트 늘어 59%에 이른다.
이 기술의 효과성은 입증됐지만, 오픈AI는 이용자들의 반발과 기술의 악용 가능성 등을 고려해 아직 공개 여부를 결정하지 못하고 있다고 WSJ는 전했다.
워터마킹 정보를 누구에게 줄 것이냐도 관건이다. 일단 오픈AI는 교사나 기업 관리 책임자 등 AI가 작성한 내용 가운데 표절된 것을 구별해야 하는 특정 직책에 해당 기능을 제공하는 것을 논의했다고 전해졌다.
한편, 이 워터마크도 챗GPT 답변을 다른 언어로 번역한 뒤 다시 번역해서 옮길 경우 벗겨질 수 있다고 한다. 혹은 이모티콘을 일부 추가한 뒤 수기로 일일이 삭제할 경우에도 워터마크는 쉽게 지워질 수 있는 한계가 있다고 WSJ는 덧붙였다.