카카오, 'AI 위험 관리 체계' 구축…전 생애주기 대응 가능

2024-10-23 09:39

[사진=카카오]
카카오가 인공지능(AI) 기술의 윤리와 신뢰를 강화하고, 사회적 책임을 다하기 위한 활동을 체계화한다.
 
카카오는 AI 위험성 관리 체계인 '카카오 AI 세이프티 안전 계획(카카오 ASI)'을 구축했다고 23일 밝혔다.
 
이는 AI 기술 개발과 운영상 발생 가능한 위험요인을 최소화하고, 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침이다.
 
기술 설계부터 개발, 실험, 배포, 관리와 업데이트 등 AI 시스템의 전 생애주기에 거쳐 발생할 수 있는 위험성에 대한 선제적 대응이 가능하다. AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리하며, 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했다.
 
카카오 ASI는 △카카오 AI 윤리 원칙 △위험 관리 주기 △AI 리스크 거버넌스(관리 체계)라는 3가지 핵심요소로 구성됐다.
 
윤리 원칙은 작년 3월 발표한 '카카오 그룹의 책임 있는 AI를 위한 지침'을 기반으로 한다. 사회 윤리, 포용성, 투명성, 사생할, 이용자 보호 등 원칙을 포함한다. 개발자와 사용자를 대상으로 윤리적인 지침을 제공한다.
 
위험 관리 주기는 불안정한 요인을 체계적으로 다루기 위한 접근법으로, 식별-평가-대응 순 단계로 구성된다. AI 기술의 비윤리, 불완전 등을 최소화하고 안전성과 신뢰성을 확보할 수 있는 핵심적인 역할을 한다. AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용된다.
 
AI 리스크 거버넌스는 시스템 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻한다. 조직 내 정책, 절차, 책임 구조‧외부 규제와의 조화를 포함하며, 거버넌스 체계 내에서 관련 위험요인을 다각적으로 검토한다. 카카오 ASI 거버넌스는 AI 안전, 전사 위험성 관리 전담 조직(ERM) 위원회, 최고 의사결정 기구 등 3단계로 구성됐다. 
 
카카오 관계자는 "카카오 ASI 구축 이후에도 관련 체계 고도화를 이어갈 계획"이라며 "AI 시스템의 신뢰와 안전성을 꾸준히 높여가기 위해 힘쓸 것"이라고 말했다.