방통위, 교육·컨설팅·규제로 '제2의 이루다' 막는다
2021-01-14 09:53
방송통신위원회는 사람 중심의 인공지능(AI) 서비스가 제공·활용되는 과정에서 이용자 보호 원칙이 지켜질 수 있도록 이용자·사업자 대상 교육·컨설팅을 지원한다고 14일 밝혔다. 또 AI 윤리 규범 등을 구체화해 제도 개선을 추진한다.
최근 AI 채팅로봇(이루다)의 혐오·차별적인 표현과 이용자의 성희롱성 발언 등이 사회적 논란이 되고 있다. 이와 관련해 사업자·이용자·정부 등 지능정보사회 구성원 모두가 AI 윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다는 지적이 나온다.
방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고, 이용자 교육, 사업자 컨설팅, 제도 개선 등을 추진해 나간다는 방침이다.
내년부터는 신규 예산을 확보해 AI 윤리 교육 대상을 이용자에서 사업자로 확대하고, 스타트업 등을 대상으로 서비스 설계 시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다.
이용자 보호를 위한 규범·제도도 구체화한다. 방통위는 지난 2019년 11월 '차별 금지, 인간 존엄성 보호' 등의 내용을 포함한 '이용자 중심의 지능정보사회를 위한 원칙'을 발표한 바 있다. 해당 원칙이 선언적 규정이라면, 올해부터는 이를 실천하기 위한 구체적 사례·방법 등을 사업자 등과 공유한다는 것이다.
중장기적으로는 이용자 피해를 야기한 AI 서비스의 책임 소재 및 권리 구제 절차 등을 포괄하는 방향으로 기존의 법체계를 정비해 나간다는 방침이다. 이를 위해 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내 법제 연구반을 운영하고 있다.
한상혁 방통위원장은 "AI 서비스는 더 많은 부가가치를 창출하고 생활의 편의를 더해주겠지만, 올바른 윤리와 규범이 없다면 이용자 차별과 사회 갈등을 초래할 수 있다"며 "AI 기술의 혜택은 골고루 누리되 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나가겠다"고 말했다.