정부, 인공지능 제작물에 '워터마크' 제도화 추진

2023-10-25 10:14
  • 글자크기 설정

AI 신뢰성 강화 위한 방안...관련 기술 개발도

과학기술정보통신부는 25일 서울 강서구 마곡 소재 LG사이언스파크에서 ‘제4차 AI 최고위 전략대화’를 개최했다 사진한영훈 기자
과학기술정보통신부는 25일 서울 강서구 마곡 소재 LG사이언스파크에서 ‘제4차 AI 최고위 전략대화’를 개최했다. (왼쪽에서 네번째) 이종호 과기정통부 장관 (왼쪽에서 다섯번째) 고학수 개인정보보호위원장  [사진=한영훈 기자]
정부가 인공지능(AI)이 생성한 결과물에 워터마크를 도입하는 방안을 검토한다. 초거대 AI 기업을 시작으로 단계적으로 적용해나갈 예정이다.

과학기술정보통신부는 25일 서울 강서구 마곡 소재 LG사이언스파크에서 ‘제4차 AI 최고위 전략대화’를 개최했다. 이는 국가 AI 경쟁력 강화를 위해 민·관이 함께 정책・투자 방향, 전략적 협력방안을 논의하는 자리다. 이종호 과기정통부 장관과 고학수 개인정보보호위원장을 비롯한 AI 분야 민·관 최고위 관계자들이 참석했다.
 
행사 초점은 AI 신뢰성 강화에 맞춰졌다. 이를 위해 필요한 안전조치들이 제시됐다.
 
과기정통부는 ‘AI 윤리·신뢰성 확보 추진계획’을 발표하며 향후 민·관이 함께 나아가야 할 방향을 공유했다. 주제는 △민간 자율적인 AI 윤리·신뢰성 확보 지원 △글로벌 선도 AI 윤리·신뢰성 기술·제도적 기반 마련 △책임 있는 AI 의식 확산 등이다.
 
세부적으로 과기정통부는 채용·생성형 AI 기반 서비스 등 분야별 세부지침을 마련한다. 11월에는 민간 자율적인 신뢰성 검·인증을 추진한다. 12월에는 고위험영역 AI 개발·실증 사업 수행 기업 중 일부를 선정해 시범 인증을 추진할 예정이다.
 
내년부턴 초거대 AI의 신뢰성을 확보하기 위한 기술개발도 신규 추진한다. 총 220억원 규모로, 4년간 수행된다. AI가 생성한 결과물에 대한 워터마크 도입 제도화도 검토한다. 내년 1분기에는 고위험 AI에 대한 해설서를 마련해 신뢰성 개선에 나선다.
 
민간에서도 AI 신뢰성 제고를 위한 다양한 방안이 제시됐다. 김유철 LG AI 연구원 부문장이 ‘AI 윤리원칙 실행을 위한 기업의 노력’을, 김동민 JLK 대표가 ‘고위험 AI 분야에 대한 신뢰성 검·인증의 필요성’을 주제로 각각 발표했다.
 
주제 토론도 진행됐다. 일반·고위험영역 AI의 신뢰성 검·인증이 나아가야 할 방향에 관한 논의가 이뤄졌다. ‘초거대·생성형 AI의 신뢰성 향상을 위한 자발적 노력’도 화두로 올랐다. 기업들은 AI 생성물에 워터마크 도입, 신뢰성 확보 기술개발 및 책임 있는 거버넌스(관리 체계) 구축 등 자발적인 노력을 공유했다.
 
초거대 AI 기업들은 AI가 생성한 결과물에 대한 ‘가시적 워터마크’ 도입 필요성에 공감했다. 기술적 완성도를 고려해 자사 서비스에 단계적으로 적용하는 것에도 동의했다. 끝으로 AI 윤리교육과 전문 인력의 필요성이 언급됐다. 글로벌 AI 규범을 선도하려면 AI 윤리·신뢰성 표준 제정이 중요하다는 것도 재확인했다.
 
이종호 장관은 “AI는 디지털 심화 시대의 핵심기술로, 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”며 “민간 자율 AI 신뢰성 검·인증 지원을 비롯한 AI 윤리 생태계 기반 조성과 적합한 규제 체계를 정립하기 위해 지속 노력할 것”이라고 말했다. 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기