인공지능(AI) 기술이 산업 전반에 확대 적용되면서 AI의 편향성이라는 예상치 못한 거대한 벽을 만났다. 편향성이란 데이터 또는 AI 개발자가 무의식에 내포하고 있는 경향이나 생각이 AI에 고스란히 반영되는 현상이다. 대표적인 사례로 인종차별적인 데이터를 거르지 못해 흑인을 고릴라로 분류한 구글포토 사태를 들 수 있다. 이를 두고 기업과 개발자의 의도 대신 방대한 데이터 학습으로 결과물(AI 모델)을 산출하는 딥러닝(인공신경망)의 한계라는 평가마저 나온다.
AI의 편향성이 AI 업계의 핵심 문제로 부각됨에 따라 이를 최소화하려는 IT 기업들의 움직임이 활발해지고 있고, 그 결과물이 시장에 속속 등장하고 있다.
AI의 편향성이 AI 업계의 핵심 문제로 부각됨에 따라 이를 최소화하려는 IT 기업들의 움직임이 활발해지고 있고, 그 결과물이 시장에 속속 등장하고 있다.
구글, AI 개발하며 다양한 윤리적 논란... 클라우드로 사업화
구글은 AI 서비스를 제공하고 프로젝트를 추진하는 과정에서 다양한 윤리적 논란을 겪으며 AI 윤리 원칙을 발표하는 등 AI의 편향성에 대응하는 노하우를 축적했다. 예를 들어 지난 2015년 구글포토는 흑인을 고릴라로 인식해서 자동 분류하기도 했고, 2018년에는 미국 국방부의 AI 기반 무인 드론 프로젝트 참여를 두고 직원들의 반발에 직면하기도 했다.
이에 구글은 개발자가 AI의 공정성과 안정성을 평가할 수 있는 도구를 개발해 외부에 무료 공개했으며, 이어 연내에 기업 고객을 대상으로 AI 윤리 컨설팅을 제공하기로 했다. AI의 윤리적 딜레마로 고민하는 기업이 늘어남에 따라 이를 해결하는 컨설팅 사업이 충분히 시장성이 있다고 판단한 것이다.
구글의 AI 윤리 컨설팅은 클라우드 서비스(Ethics as a Service, EaaS) 형태로 제공한다. AI 알고리즘의 편향성, 안정성 등을 클라우드 시스템을 통해 자동으로 검증하는 서비스를 제공할 계획이다. 이는 전 세계 시장점유율 3위에 머무르고 있는 구글 클라우드(GCP) 사업에 새 경쟁력으로 작용할 전망이다.
이미 구글은 글로벌 금융기업인 HSBC에 AI 윤리 교육과 AI 프로젝트 검토·감리 컨설팅 서비스를 제공해 HSBC의 대출 AI 알고리즘에 특정 집단 편향성이 있는지 검증한 바 있다.
다만 일각에선 구글이 AI 윤리라는 도덕적 이슈를 다루는 '멘토' 대신 영리기업으로서 자사의 AI와 클라우드 사업에 유리한 방향으로 AI 윤리 사업을 주도할 것이라는 우려를 하고 있다.
AI 업계 관계자는 "최근 아마존, 마이크로소프트가 도덕적인 논란과 AI의 편향성을 이유로 안면인식 AI 개발을 중단한 것처럼 향후 AI 윤리 이슈 대응이 기업의 사업 성패를 좌우할 가능성이 커졌다. 구글 AI 윤리 사업의 시장 점유율이 높아지면 경쟁 클라우드 사업자 역시 관련 사업에 진출하고, AI 윤리 컨설팅 서비스가 빠르게 확산될 전망"이라고 분석했다.
MS, AI 편향성 보정하는 도구 오픈소스로 공개... 클라우드 사업도 계획 중
마이크로소프트의 SNS 자회사인 링크드인은 AI의 편향성을 해결할 수 있는 도구(LiFT)를 오픈소스로 공개해 주목받고 있다.
링크드인은 그동안 친구 추천, 직업 추천, 랭킹 도출, 회원의 문제 행동 적발 등 링크드인 서비스에서 AI를 활용하면서 AI가 특정 유형의 회원을 차별하는지 LiFT로 감시하고 문제 발생 시 적극 대응해왔다. 이러한 기술적인 성과를 누구나 이용할 수 있도록 LiFT를 세계 최대 오픈소스 공유 사이트인 깃허브에 오픈소스로 공개했다.
LiFT는 데이터 세트의 편향성과 AI 모델의 통계적 공정성을 검증할 수 있으며, 대규모 데이터 기반의 다양한 AI 모델에 적용할 수 있는 게 강점이다. 특정 성별, 인종, 연령, 지역에 속하는 회원 집단이 훈련 데이터 세트에 지나치게 많거나 적은지 판단해 개발자가 편향성 없는 데이터 세트를 구성할 수 있도록 지원한다.
일례로 데이터 세트의 40%가 여성이지만 친구 추천에 여성은 20%만 나타난다면 개발자는 이를 토대로 AI 모델의 변수 등을 조정해 공정성을 개선할 수 있다.
오픈소스 업계에선 LiFT가 그동안 공개된 다수의 공정성 평가 도구보다 확장성과 범용성이 우수하다는 평가를 내리고 있다. 주요 IT 기업이 공개한 공정성 평가 도구는 대부분 자사의 클라우드 환경에서만 구동되어 활용에 제한이 있지만, LiFT는 다양한 환경의 대규모 AI 개발 프로젝트에서 공정성을 평가할 수 있도록 개발돼 활용도가 높다. 빅데이터 분석 기술 중에 가장 유망한 스칼라/스파크 환경에서 만들어졌고 다양한 상황에서 활용할 수 있도록 여러 가지 API를 제공한다.
이에 많은 미국 기업이 LiFT를 통해 직원 채용이나 고객의 신용평가 시 AI가 특정 지원자와 고객을 차별하는지 여부를 손쉽게 판단할 수 있을 것으로 기대하고 있다.
다만 LiFT는 링크드인의 상황에 맞춰 개발한 도구라 기업이 이를 제대로 활용하려면 자사 상황에 맞는 커스터마이징이 필요하다. 개발자가 많은 조직은 별 부담없이 도입을 결정할 수 있지만, 개발자가 적은 기업은 도입에 어려움을 겪을 수 있다.
이에 마이크로소프트가 개발자가 적은 기업도 LiFT를 활용할 수 있도록 자사 클라우드(애저)를 통해 클라우드 서비스(EaaS)로 제공할 것이란 분석이 나온다. 먼저 EaaS 시장에 진출한 구글의 사례를 면밀히 분석하며 물밑에서 기업 고객을 확보해 내년 초 정식 서비스를 시작할 것으로 예상된다.
AI 업계 관계자는 "AI의 실생활 적용과 확산에 따라 편향 방지를 위한 기업의 조치와 전략이 필요한 시점이다. AI의 오남용과 불공정 이슈가 지속해서 제기됨에 따라 미국, 유럽연합, 영국 등은 관련 규제를 강화하려는 움직임을 보이고 있다. 글로벌 IT 기업이 AI 윤리 문제에 적극적으로 대응하는 만큼 한국 정부와 기업도 관련 기술 개발과 전략 수립이 필요한 시점"이라고 분석했다.
영국 정부는 AI의 편향성 탓에 시스템 도입 철회
한편, 영국 정부는 코로나19 확산으로 인해 고등학생 졸업자격시험과 대학입학시험 대신 도입한 AI 기반 평가 시스템에서 편향성 문제가 일어나자 관련 시스템 도입을 철회하기로 했다.
구체적으로 영국 정부의 성적 산출 AI는 △교사가 낸 예상 점수 △출신 학교의 과거 3년간 시험 성적 분포 △해당 학생의 과목 석차 등 3종류의 데이터를 활용해 성적을 산출했는데, 교사가 학생에게 높은 성적을 부여하는 '학점 인플레이션'을 조정하는 과정에서 일부 학생들이 작년보다 평균 성적이 30% 하락하는 문제가 일어났다.
교사가 낸 예상 점수보다 높은 성적을 받은 학생 비율은 2.3%인 반면, 학생 35.6%는 1등급 하락, 3.3%는 2등급 하락, 0.2%는 3등급 하락이라는 결과에 직면했다. 특히 공립학교와 빈곤 지역 학생의 성적이 주로 하락하고, 부유층이 다니는 사립학교 학생들이 반사 이익을 얻는 등 불공정 논란이 촉발됐다.