한국언론진흥재단과 6개 현업 언론인 단체는 뉴스 제작에 인공지능(AI)을 활용할 경우 철저하게 사실을 확인해야 한다는 가이드라인을 5일 제시했다.
특히 기술적 한계로 인해 AI가 생성한 결과물에 부정확한 사실이나 허구의 내용이 포함될 수 있으므로 이를 검증하지 않고 그대로 보도해서는 안 된다고 제언했다.
또 신뢰할 수 있는 콘텐츠를 만들기 위해 인공지능에 활용된 데이터의 사실 여부와 정확성을 점검해야 하며 기자가 확인과 검증을 할 수 없는 내용이라면 인공지능으로 생산해서는 안 된다고 권고했다.
아울러 언론사는 뉴스 생산에 인공지능을 활용하는 경우 이에 따라 발생한 문제에 대해 법률적·윤리적 책임을 져야 하며 AI 활용으로 인한 문제점을 상시 점검하고 이에 대처할 수 있는 시스템을 구축해야 한다.
AI의 활용 범위에 관해서도 가이드라인을 내놓았다. 뉴스 생산을 위한 기획과 기초 자료 조사, 아이디어 제공, 녹취 및 문자 변환, 번역, 오탈자 확인, 방대한 양의 정보 처리, 데이터 분석, 시각화 자료 생성 등 보조적 작업에서는 원칙적으로 제한 없이 AI를 활용할 수 있지만 전체 내용을 AI가 자동으로 생성한 기사와 영상은 사용하지 않는 것이 바람직하다고 재단은 설명했다.
준칙은 한국언론진흥재단과 한국신문협회·한국방송협회·한국기자협회·한국신문방송편집인협회·한국인터넷신문협회·한국온라인신문협회 등 6개 단체가 3월부터 공동 운영한 'AI시대 뉴스 저작권 포럼'을 통해 마련됐다.