스캐터랩 "이루다 혐오·차별 잘못…개인정보 유출 아냐"

2021-01-11 21:53
최근 사례 필터링 적용…추가 문제 없도록 개선중
이루다 AI에 '더 적절한 답변' 판단도 학습시킬 것
구체적인 개인정보는 제거…특정 개인 식별 안돼

스캐터랩이 인공지능(AI) 챗봇 '이루다'의 소수자 혐오·차별 발언에 대해 사과했다. 함께 불거진 개인정보 유출 가능성은 부인했다.

스캐터랩은 11일 밤 공식 입장문을 통해 "출시 후 75만명에 가까운 이용자들이 루다와 대화를 나눴다"며 "이 과정에 일부 혐오와 차별에 대한 대화 사례 및 개인정보 활용에 대해 충분히 소통하지 못한 점 사과드린다"고 밝혔다.

앞서 이루다가 성소수자('레즈비언' 등)에 대한 이용자의 질문에 "혐오스럽다"는 식의 답변을 내놓으며 소수자에 대한 차별·혐오를 여과 없이 표현한 점이 드러나 논란이 일었다.

스캐터랩은 차별 발언에 대해 사과하며 회사측 공식 입장이 아니라고 밝혔다. 지난 6개월간 베타테스트를 진행하며 문제가 되는 표현과 키워드를 필터링해왔고, 최근 문제가 된 사례도 재발하지 않도록 조치했다고 강조했다.

스캐터랩은 "이루다가 특정 소수집단에 대해 차별적인 발언을 한 사례가 생긴 것에 대해 사과드린다"며 "저희는 루다의 차별적 발언에 동의하지 않으며 그런 발언은 회사의 생각을 반영하지 않는다"고 해명했다.

이어 "베타테스트를 통해 특정 집단을 비하는 호칭이나 혐오 표현을 필터링했다"며 "기존에 알려진 사례들은 이미 개선을 완료했으며, 새롭게 발견되는 표현과 키워드를 추가해 차별이나 혐오 발언이 발견되지 않도록 개선 중이다"고 설명했다.

스캐터랩은 이용자와의 대화 가운데 적절한 답변이 무엇인지에 대한 판단을 이루다에게 함께 학습시키고, 향후 '편향 대화 검출' 모델을 만들어 AI 윤리 발전을 위해 외부에 공개하겠다고 밝혔다.

회사측은 "이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI"라며 "이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라, 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것"이라고 밝혔다.

또 "학습을 통해 만들게 될 편향 대화 검출 모델은 모든 분들이 사용하실 수 있게 공개할 계획"이라며 "한국어 AI 대화 연구 및 AI 제품, 그리고 AI 윤리 발전에 유용하게 쓰일 수 있었으면 좋겠다"고 덧붙였다.

차별 및 혐오 표현과 별개로 불거진 '개인정보 유출 및 오·남용' 의혹에 대해서는 부인했다. 앞서 이루다가 특정 키워드에 대해 사람의 이름, 특정 주소, 계좌번호 등을 답으로 내놓자 실제 이용자의 정보가 유출된 것 아니냐는 의혹이 불거졌다.

또 스캐터랩은 함께 운영하고 있는 '연애의 과학'에서 수집한 메시지를 이루다의 AI 학습용 데이터로 활용했는데, 회사측이 연애의 과학 서비스 이용자들에게 제대로 동의를 받지 않아 개인정보보호법 위반 소지가 있다는 비판이 제기됐다.

스캐터랩 측은 "사전에 동의가 이루어진 개인정보취급방침의 범위 내에서 활용한 것"이라며 "하지만 사용자분들께서 이 점을 명확히 인지할 수 있도록 충분히 소통하지 못한 점에 대해서 책임을 통감하며 진심으로 사과드린다"고 밝혔다.

또 "데이터 활용시 사용자 닉네임, 이름, 이메일 등의 구체적인 개인 정보는 제거됐다"며 "전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제해 개인을 특정할 수 있는 정보는 유출되지 않았다"고 설명했다.

이어 "향후 데이터 사용 동의 절차를 명확하게 하고 식별이 불가능한 정보라도 민감해 보일 수 있는 내용에 대해서는 지속적인 알고리즘 개선을 통해 보완하겠다"고 덧붙였다.

스캐터랩은 "인간과 자유롭게 대화할 수 있는 AI가 앞으로도 소외된 사람, 사회적 약자의 마음을 위로해주는 따뜻한 대화 상대가 되길 바란다"고 밝혔다.

이어 "스캐터랩은 일정 시간 서비스 개선 기간을 가지며 더 나은 이루다로 찾아뵙고자 한다"며 "누구에게나 친구가 되어줄 수 있는 AI를 만들기 위해 앞으로도 더욱 노력하겠다"고 강조했다.
 

[사진=스캐터랩 제공]