최근 혐오 발언 학습 등으로 논란을 빚고 있는 인공지능(AI) 챗봇 '이루다'에 대해 서비스를 중단하라는 학계의 성명이 나왔다.
한국인공지능윤리협회는 11일 성명을 통해 "AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다"며 "AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다. 이번 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다"고 지적했다.
협회는 "AI 제품과 서비스는 출시 전 충분한 품질 검사를 거치고, 중립적인 기관의 검수도 거쳐야 한다"며 "AI는 기계학습 과정에서 인간이 예측하기 어려운 결과물을 내놓기 때문"이라고 설명했다.
이루다와의 대화에서 이용자들의 개인정보가 유출되고 있다는 의혹에 대해선 "카카오톡 대화를 챗봇 학습 데이터로 활용한다는 명확한 고지가 없었다"며 "카톡 대화의 상대방들은 개인정보 제공에 동의하지 않았기 때문에 문제 소지가 있다"고 지적했다.
협회는 이루다의 서비스를 중단하고 AI 윤리 가이드라인을 적용해야 한다고 전했다.
이루다는 스타트업 스캐터랩이 지난달 23일 출시한 페이스북 메신저 기반의 AI 챗봇으로, 실제 사람처럼 이용자들과 채팅을 해 주목을 받고 있다. 이달 초 기준, 이용자가 32만명을 돌파했고 일일 이용자 수는 21만명, 누적 대화 건수는 7000만건에 달한다. 그러나 이루다를 성적 대상으로 취급하는 등의 악용 사례가 드러나 논란이 되고 있다.
한국인공지능윤리협회는 11일 성명을 통해 "AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다"며 "AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다. 이번 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다"고 지적했다.
협회는 "AI 제품과 서비스는 출시 전 충분한 품질 검사를 거치고, 중립적인 기관의 검수도 거쳐야 한다"며 "AI는 기계학습 과정에서 인간이 예측하기 어려운 결과물을 내놓기 때문"이라고 설명했다.
이루다와의 대화에서 이용자들의 개인정보가 유출되고 있다는 의혹에 대해선 "카카오톡 대화를 챗봇 학습 데이터로 활용한다는 명확한 고지가 없었다"며 "카톡 대화의 상대방들은 개인정보 제공에 동의하지 않았기 때문에 문제 소지가 있다"고 지적했다.
협회는 이루다의 서비스를 중단하고 AI 윤리 가이드라인을 적용해야 한다고 전했다.
이루다는 스타트업 스캐터랩이 지난달 23일 출시한 페이스북 메신저 기반의 AI 챗봇으로, 실제 사람처럼 이용자들과 채팅을 해 주목을 받고 있다. 이달 초 기준, 이용자가 32만명을 돌파했고 일일 이용자 수는 21만명, 누적 대화 건수는 7000만건에 달한다. 그러나 이루다를 성적 대상으로 취급하는 등의 악용 사례가 드러나 논란이 되고 있다.