국가 AI 윤리기준 마련…"AI로 생기는 문제, 책임소재 명확해야"

2020-12-23 11:00
과기정통부, 사람중심 AI윤리기준 발표
존엄성·공공선·합목적성 3대 기본 원칙
"민주적 가치·국제 인권법 등 권리 보장"
"설계자·제공자·사용자간 책임 명확해야"

인공지능(AI) 개발과 활용 과정에 인권을 보장해야 하고, 발생할 피해의 책임소재를 명확히 해야 한다는 핵심 요건을 담은 정부의 '사람중심 AI 윤리기준'이 마련됐다.

과학기술정보통신부와 정보통신정책연구원은 23일 대통령 직속 4차산업혁명위원회 전체회의에서 AI 시대 사람이 중심이 되는 'AI 윤리기준'을 발표했다.

AI 윤리기준은 '사람 중심의 AI'를 위한 최고 가치인 '인간성(Humanity)'을 위한 3대 기본원칙과 10대 핵심요건을 제시했다. 3대 기본원칙은 인간성을 구현하기 위해 AI 개발과 활용 과정에 지켜야 할 '인간의 존엄성', '사회의 공공선', '기술의 합목적성' 원칙이다. 10대 핵심요건은 3대 기본원칙을 실천하고 이행하도록 AI 개발과 활용 과정에 충족돼야 할 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성 요건이다.

이가운데 인권보장 요건은 "AI의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장해야 한다"며 "인간의 권리와 자유를 침해해서는 안 된다"는 내용이다. 또 책임성 요건은 "AI 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다"며 "AI 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다"는 내용이다.

AI 윤리기준은 모든 사회 구성원이 모든 분야에서 자율적으로 준수하며 지속 발전하는 윤리기준을 지향한다. AI 개발에서 활용에 이르는 전 단계에 정부·공공기관, 기업, 이용자 등이 두루 참조하는 기준을 추구한다. 특정 분야에 제한되지 않는 범용성을 가진 일반원칙을 표방한다. 구속력 있는 법이나 지침이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론 형성 기능을 지향한다. 사회경제, 기술 변화에 따라 제기되는 AI 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼을 자처한다.

과기정통부 측은 향후 윤리기준의 현장 확산을 돕기 위해 개발자·공급자·이용자 등 주체별 체크리스트 개발, AI 윤리 교육 프로그램 마련 등 구체적인 실천방안을 마련하고 추진해나갈 계획이다. 앞으로도 AI 윤리기준을 바탕으로 다양한 이해관계자 참여하에 AI 윤리 이슈를 지속 논의하고 윤리기준이 기술·사회 변화를 반영해 발전하도록 노력할 예정이다.

최기영 과기정통부 장관은 "지난달 27일 윤리기준 초안을 발표한 후 공청회 등 폭넓은 공개 의견수렴을 거쳐 마련된 이 기준이 AI 윤리 이슈에 대한 우리사회의 토론과 숙의의 시작점이자 사람 중심의 AI로 나아가는 플랫폼이 되도록 노력하겠다"고 말했다.

앞서 AI 윤리기준 개발을 위해 AI·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했고 지난달 27일 초안 발표, 이달 7일 공개 공청회 등 시민 의견수렴을 거쳤다.

AI 기술의 윤리적 개발·활용은 각국과 주요 국제기구 관심 대상이 돼 왔다. 작년 한국이 주도적으로 참여한 경제협력개발기구(OECD) 'AI 권고안'을 비롯해 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 AI 윤리 원칙이 발표됐다. 이에 과기정통부는 작년 12월 발표된 'AI 국가전략' 과제로 AI 윤리기준 마련을 추진해 왔다.

과기정통부는 올해 4월부터 AI·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계해 ‘인간성을 위한 인공지능(AI for Humanity)’를 목표로 하는 윤리기준 초안을 마련했으며, 3개월에 걸쳐 학계·기업·시민단체 등 각계의 다양한 전문가로부터 의견을 수렴했다.

[사진=게티이미지뱅크]