"AI 얼굴인식 美 경찰에 안 팝니다..." 국내 IT 업계는 시장 확대만 골몰 대조적
2020-06-14 11:44
IBM·아마존·MS, AI 얼굴인식 개발·판매 중단... 편견 없는 AI 윤리적 활용 고민
국내에선 AI 얼굴인식 시장 확대에만 집중... 'AI 윤리위원회' 설치 필요성 제기
국내에선 AI 얼굴인식 시장 확대에만 집중... 'AI 윤리위원회' 설치 필요성 제기
조지 플로이드 사망 사건 이후 미국 빅테크 기업들이 '인공지능(AI)을 활용한 얼굴인식(컴퓨터비전)'이 인종차별을 고착화할 우려가 있다며 관련 기술 개발을 중단하거나, 기술을 경찰과 같은 관공서에 제공하지 않겠다고 선언했다. AI 기술 개발 못지않게 윤리적인 활용이 중요하다는 메시지다. AI 기술 확대에만 집중하고 윤리적인 활용에 대한 고민이 부족한 국내 IT 업계에 경종을 울리고 있다.
14일 AI 업계에 따르면, IBM, 아마존, 마이크로소프트 등 주요 AI 기업이 AI 얼굴인식 기술 개발을 중단하거나, AI 얼굴인식 기술을 미국 경찰에 제공하지 않겠다고 밝혔다.
아빈드 크리슈나 IBM 최고경영자는 미국 의회에 서한을 보내 "법 집행에 활용되는 AI 시스템의 편향성 여부를 확인해야 한다"며 "IBM-레드햇은 AI의 편향성을 감시할 수 있는 법안이 등장하기 전까지 AI 얼굴인식 기술 개발을 중단할 것"이라고 강조했다.
아마존의 클라우드 사업부서인 아마존웹서비스(AWS)는 "향후 1년 동안 미국 경찰에 컴퓨터비전 기술인 '아마존 리코그니션'을 판매하지 않겠다"며 "AWS는 미국 의회가 얼굴인식을 윤리적으로 이용할 수 있는 규제를 도입하길 기대한다"고 성명서를 냈다.
마이크로소프트 역시 AI 얼굴인식 기술 사용을 규제하는 법이 마련될 때까지 이 기술을 미국 경찰에 판매하지 않겠다고 밝혔다. MS는 지난해에도 대량 감시에 악용될 수 있다는 우려를 의식해 캘리포니아 경찰에 얼굴인식 기술 판매를 거절한 바 있다.
AI 얼굴인식은 AI의 사물인식 능력을 활용해 사람의 신원을 판별하는 기술이다. AI 업계에서 가장 활성화된 사업 분야로, 약 99% 정확도로 특정인의 신원을 파악한다. 중국·미국에서 범죄자 식별과 같은 치안 유지에 널리 활용되고 있지만, AI가 기존 데이터에서 인종·성별에 따른 편견도 함께 학습한다는 지적이 끊이지 않고 있다.
실제로 AI 얼굴인식은 종종 흑인, 아시아인, 여성 등 소수에 대한 차별을 여과 없이 드러내는 문제를 일으켰다. 지난 2015년 구글의 AI 사진분류 서비스 구글포토는 흑인을 사람이 아닌 고릴라로 분류해 논란을 일으켰다. 지난해 8월에는 미국 시민단체가 AI 얼굴인식을 활용해 캘리포니아 주의회 의원들의 사진과 경찰의 범죄자 데이터베이스를 대조한 결과 26명의 의원을 범죄자로 잘못 판정했다. 잘못 판정된 의원의 절반 이상이 유색인종이었다.
AI 얼굴인식이 이렇게 오류를 일으키는 이유는 지난 20년 동안 축적된 학습용 데이터 자체에 인종·성별에 대한 편견이 녹아있기 때문이다. 이를 바로잡아야 할 IT 전문가들조차 대부분 백인 남성으로 구성되어 있어 문제를 인식하지 못하고 편견에 사로잡힌 AI 모델을 만들고 있다.
국내의 경우 사내 출입통제나 토익스피킹 시험 본인 확인 등에 AI 얼굴인식 기능을 도입해 유용하게 활용하고 있다. 비대면 시대를 맞아 급성장할 시장 가운데 하나로 꼽힌다. 하지만 네이버, 카카오, 삼성SDS, LG CNS 등 국내 주요 IT 기업 중 AI의 편견을 없애고 윤리적인 활용을 고민하는 'AI 윤리위원회'를 설치한 곳은 현재 없다. 유일하게 카카오만이 AI의 윤리적인 개발과 활용 방안을 담은 '카카오 알고리즘 윤리 헌장'을 제정하고, AI 개발과정에서 윤리 헌장이 제대로 반영되고 있는지 확인하고 있을 뿐이다.
다만, 일각에선 미국 빅테크 기업들의 이러한 움직임이 흑인 시위 확산에 대한 면피행위에 불과하다고 지적한다. 일례로 기존에 미국 경찰에 판매된 아마존 리코그니션은 지금도 미국 범죄자 데이터베이스와 결합되어 수천명에 달하는 범죄자 판독에 널리 활용되고 있다. 이 문제로부터 진정 자유로운 빅테크 기업은 직원들의 강한 반발로 미국 경찰에 AI 얼굴인식 기술을 판매한 적이 없는 구글뿐이라는 설명이다.
14일 AI 업계에 따르면, IBM, 아마존, 마이크로소프트 등 주요 AI 기업이 AI 얼굴인식 기술 개발을 중단하거나, AI 얼굴인식 기술을 미국 경찰에 제공하지 않겠다고 밝혔다.
아마존의 클라우드 사업부서인 아마존웹서비스(AWS)는 "향후 1년 동안 미국 경찰에 컴퓨터비전 기술인 '아마존 리코그니션'을 판매하지 않겠다"며 "AWS는 미국 의회가 얼굴인식을 윤리적으로 이용할 수 있는 규제를 도입하길 기대한다"고 성명서를 냈다.
AI 얼굴인식은 AI의 사물인식 능력을 활용해 사람의 신원을 판별하는 기술이다. AI 업계에서 가장 활성화된 사업 분야로, 약 99% 정확도로 특정인의 신원을 파악한다. 중국·미국에서 범죄자 식별과 같은 치안 유지에 널리 활용되고 있지만, AI가 기존 데이터에서 인종·성별에 따른 편견도 함께 학습한다는 지적이 끊이지 않고 있다.
실제로 AI 얼굴인식은 종종 흑인, 아시아인, 여성 등 소수에 대한 차별을 여과 없이 드러내는 문제를 일으켰다. 지난 2015년 구글의 AI 사진분류 서비스 구글포토는 흑인을 사람이 아닌 고릴라로 분류해 논란을 일으켰다. 지난해 8월에는 미국 시민단체가 AI 얼굴인식을 활용해 캘리포니아 주의회 의원들의 사진과 경찰의 범죄자 데이터베이스를 대조한 결과 26명의 의원을 범죄자로 잘못 판정했다. 잘못 판정된 의원의 절반 이상이 유색인종이었다.
국내의 경우 사내 출입통제나 토익스피킹 시험 본인 확인 등에 AI 얼굴인식 기능을 도입해 유용하게 활용하고 있다. 비대면 시대를 맞아 급성장할 시장 가운데 하나로 꼽힌다. 하지만 네이버, 카카오, 삼성SDS, LG CNS 등 국내 주요 IT 기업 중 AI의 편견을 없애고 윤리적인 활용을 고민하는 'AI 윤리위원회'를 설치한 곳은 현재 없다. 유일하게 카카오만이 AI의 윤리적인 개발과 활용 방안을 담은 '카카오 알고리즘 윤리 헌장'을 제정하고, AI 개발과정에서 윤리 헌장이 제대로 반영되고 있는지 확인하고 있을 뿐이다.
다만, 일각에선 미국 빅테크 기업들의 이러한 움직임이 흑인 시위 확산에 대한 면피행위에 불과하다고 지적한다. 일례로 기존에 미국 경찰에 판매된 아마존 리코그니션은 지금도 미국 범죄자 데이터베이스와 결합되어 수천명에 달하는 범죄자 판독에 널리 활용되고 있다. 이 문제로부터 진정 자유로운 빅테크 기업은 직원들의 강한 반발로 미국 경찰에 AI 얼굴인식 기술을 판매한 적이 없는 구글뿐이라는 설명이다.