AI챗봇 '이루다' 데이터수집 적법성, 전문가 의견 엇갈려

2021-04-14 23:41
  • 글자크기 설정

참여자 1명만 동의한 카톡 대화 수집 놓고

이동진 서울대 교수 "특별한 정당화 필요"

구태언 법무법인 린 변호사 "적법한 동의"

14일 온라인 중계된 '이루다가 쏘아 올린 데이터법과 AI윤리 이슈와 과제' 세미나 패널토론.[사진=법무법인 린 제공]


규제당국의 판단이 내려지지 않은 가운데, 인공지능(AI) 챗봇 '이루다'를 개발하기 위해 데이터가 수집된 방식의 적법성을 놓고 민간 전문가들의 의견이 엇갈린다. AI 서비스 개발업체가 이용자로부터 카카오톡 대화 데이터를 수집·이용한다고 할 때, 대화 참여자 한 명의 동의만으로 충분하다, 그렇지 않다는 관점이 대립하고 있다.

이루다는 스캐터랩이 연애콘텐츠서비스 '연애의 과학'을 통해 수집한 카카오톡 대화 데이터를 이용해 개발한 AI챗봇 서비스다. 이를 제작하는 과정에서 개인정보 침해, 개인정보보호법 위반 소지가 제기되고, AI챗봇이 내놓는 메시지 내용에서 여과되지 않은 소수자 차별·혐오 발언이 문제로 불거지면서 출시 20일만인 올해 1월 12일 서비스가 종료됐다.
14일 법무법인 린, 한국데이터법정책학회, 코리아스타트업포럼은 '이루다가 쏘아 올린 데이터법과 AI윤리 이슈와 과제' 온라인세미나를 열어 이루다 서비스를 계기로 법 규제, 윤리적 측면에서 나타난 AI 기술의 문제점을 진단하고 이를 보완할 방안을 논의했다. 현장에서 발제를 맡은 양천수 영남대학교 법학전문대학원 교수는 '이루다 서비스와 개인정보 수집, 제공의 법적 이슈와 대안'을 주제로 발표했고 정경오 법무법인 린 변호사는 '이루다 서비스의 AI 윤리 이슈와 대안'을 주제로 발표했다.

양 교수는 카타오톡 대화 데이터에 초점을 맞춘 3가지 쟁점을 제시했다. 첫째는 연애의 과학에서 카카오톡 대화를 수집할 때 개인정보와 민감정보에 대한 동의를 당사자로부터 모두 받았는지 여부다. 둘째는 이루다 서비스 개발을 위해 카카오톡 대화를 제공할 때 대화 당사자들의 동의를 받았는지 여부다. 셋째는 카카오톡 대화에 대한 가명처리가 제대로 됐는지 여부다. 그는 "AI를 활성화하기 위해서는 과학기술을 이용한 '동의'의 실질화를 모색할 필요가 있다"고 주장했다.

정 변호사는 이루다 관련 AI윤리의 문제로 표현의 '편향성'과 서비스 개발 과정에 사용된 데이터의 '프라이버시 침해' 소지를 지적하고 AI윤리와 관련해 유럽연합, 미국, 일본, 한국 등 주요국 정부의 AI윤리 가이드라인 제정 움직임과 구글, 네이버 등 AI를 실제 개발하는 민간기업의 윤리 준칙을 소개했다. 이어 제기된 문제에 대해 AI의 부작용 방지를 전담할 부처 지정, 자율규제 도입과 활성화, 알고리즘 공개 기준 등 투명성 강화 방안 마련 등의 대안을 제시했다.

패널토론이 이어졌다. 이동진 서울대 법학전문대학원 교수, 김병필 카이스트 기술경영학부 교수, 백대용 법무법인 세종 변호사, 문정욱 정보통신정책연구원 센터장, 최성진 코리아스타트업포럼 대표, 구태언 법무법인 린 변호사, 6명이 패널로 참석했다.

이동진 교수는 "연애의 과학과 별개의 서비스인 이루다 개발에 이 데이터를 이용한 점, 대화자 중 일방만의 동의로 이 데이터를 수집, 이용한 점은 모두 특별한 정당화를 요한다"고 봤다. 또 "(연애의 과학 서비스 이용약관의) ‘신규서비스 개발’과 같은 추상적이고 모호한 설명만으로는 적법한 동의가 되기 어려울 것"이라며 "대화의 내용이 내밀할 수 있어 가명처리만으로 신규서비스 개발에 쓸 수 있을지도 의심스럽다"고 덧붙였다.

반면 구태언 변호사는 "다른 사람과 함께 만든 대화기록은 다른 사람과 공동소유"라고 말했다. 그는 "그 참여자 중 일방에게 처분권이 인정된다"면서 "스캐터랩이 연애의 과학 이용자로부터 제출받은 대화기록은 적법한 동의를 받은 것"이라고 주장했다. 그는 또 "사회적 공동관계에서 산출된 개인정보는 그 참여자 모두에게 절대적 보호를 해 줄 수 없다"며 "이루다 사건은 이러한 오해를 시정할 수 있는 기회"라고 말했다.

문정욱 센터장은 "AI 기술 연구·개발과 활용 활성화를 위해서는 AI 기술과 서비스뿐만 아니라 AI 기반의 산업, 시장과 기업, 잠재적 위험의 통제 가능성에 대한 사회적 신뢰가 필요하다"고 지적했다.

백대용 변호사는 "적절한 개인정보 규제가 오히려 AI의 활성화를 가져올 것"이라며 "윤리적인 측면에서 사업자와 이용자의 자율규제기구, 정부의 행정적, 재정적 지원, 실질적인 소비자 피해구제 제도의 확립이 중요하다"고 말했다.

김병필 교수는 "공개된 텍스트를 AI 학습에 활용시 저작물의 공정이용, 개인정보 침해 관련한 법적 리스크가 크다"며 "이런 장애를 제거하기 위해 개인정보보호위원회의 역할이 중요하다"고 말했다.

최성진 코리아스타트업포럼 대표는 "AI 경쟁력 강화를 위해 대량의 데이터 확보와 공공데이터를 포함하는 국가전략이 필요하다"며 "섣부른 규제보다는 발생하는 문제를 최소화하면서 기술과 서비스를 발전시키는 정책이 필요하다"고 말했다.

이성엽 한국데이터법정책학회장은 "법 문언에 치중하기 보다는 보다 유연하고 탄력적인 법해석이 필요하다"며 "또한 AI기술이 우리 사회에 기여할 수 있도록 합리적인 윤리 가이드라인 마련이 매우 중요하다"고 말했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기