마이크로소프트(MS) 계열사인 OpenAI에서 개발한 챗GPT의 열풍 이후 구글이 ‘Bard’를, 마이크로소프트에서도 비슷한 기술을 탑재한 ‘Bing’을, 그리고 메타(전 Facebook)에서는 ‘LLaMA’를 출시했다. 국내에서는 네이버에서 ‘HyperCLOVA X’를 출시했고, 카카오에서는 ‘KoGPT’로 대규모 생성형 AI 구축을 알렸다. 올해 2월에 있었던 국회 업무현황 보고자료를 보면, 과학기술정보통신부는 AI를 포함한 디지털 일상화(AI 일상화 원년) 및 K-디지털 글로벌 확산을 목표로 하고 있다. 앞으로 경제‧산업‧사회 전반으로 확산하여 혁신을 유도하고 글로벌 디지털 신질서를 주도할 계획이라는 것이다. AI는 여러 가지 장점이 있지만, 거짓 정보 제공, 개인정보 침해 등 윤리 및 인간의 존엄성 측면에서 여러 가지 부작용이 나타나고 있다. 따라서 글로벌 추세에 맞추어 국내 AI 관련 기업을 지원하고 인공지능 사용으로 인한 부작용에 대한 대책도 마련할 필요가 있다.
미국은 최근 ‘AI 권리장전’ 및 ‘AI 가드레일’을 도입하여 규제 속도를 높이면서도 유연한 규제를 추진하고 있다. AI 권리장전은 안전하고 효율적인 시스템의 구축, 알고리즘의 차별 방지, 데이터의 사생활 보호, 자동화 시스템에 대한 고지와 설명, 자동화 시스템의 문제 발생 시 대행 인력 고려 등 다섯 가지 원칙으로 청사진을 구성했다. 합법적이고 효율적이며 윤리적인 AI 시스템을 보장하는 방안을 마련하기 위한 것이다. 또한, 연방 4개 기관(법무부, 연방거래위원회, 소비자금융보호국, 평등고용기회위원회)이 생성형 AI의 대표적 부작용으로 나타난 편향성에 대한 규제를 검토하고 있다. 유럽에서는 AI 기술 관련 규제가 미국보다 더욱 활발히 논의되고 있는데, 유럽연합(EU)은 이미 「인공지능법안」을 발의하였고, 개인정보 보호나 저작권과 관련된 규제도 제도화되어 있다. 「인공지능법안」은 인권 관점에서도 엄격한 규제를 고려하고 있는 것으로 파악되고 있다. EU의 「개인정보 보호법」인 GDPR(General Data Protection Regulation)은 2018년부터 자동화된 의사결정에 대한 사업자의 활용 고지의무 및 이용거부, 설명요구 등의 권리를 제도화하고 있다. 올해 4월 G7은 디지털 기술 담당 각료 회의에서 AI 기술 규제에 관한 총론에는 합의하였으나, 각국의 의견 차이로 인해 구체적으로 어떻게 규제할 것인가에 대한 합의는 도출되지 않았다. EU는 규제에 적극적인 반면, 미국과 일본은 기업의 자율규제 등 법률에 기반을 두지 않은 대응을 선호하고 있다.
AI 활용 및 대책
4차 산업혁명 관련 법안 추진과정과 AI 활용 및 구축과 관련된 해외사례를 보면, 챗GPT 등 초거대 생성형 AI와 관련해서는, 그 개발 및 활용에 필요한, 지원과 관련된 법제를 먼저 구축한 다음, 그 부작용에 대한 대책은 법령이 아닌 기업의 자율규제 또는 정부의 가이드라인 구축으로 마련하고 있다. 우리나라에서는 먼저 과방위 법안소위원회에서 마련한 「인공지능법안」의 조속한 처리가 필요하다. 과방위 법안소위원회에서 마련된 「메타버스 기본법안」(가칭)도 마찬가지로 신속히 통과시켜야 할 것이다. 그 후 AI에 대한 규제법령은 인공지능 관련 산업이 어느 정도 성숙한 다음에 입안 및 제정에 착수하는 것이 타당하다고 생각된다. 「인공지능책임법안」 등이 아직 과방위에서 처리되지 않고 계속 심사 중인 것도 이와 같은 측면을 고려한 것으로 보인다. 인공지능의 부작용에 대한 법적 대책 마련을 계속 늦출 수는 없을 것이므로, 기본법인 「인공지능법안」의 조속한 시행 및 정착이 성사되면 국회 과학기술정보방송통신위원회는 적절한 시기에 「인공지능책임법안」 등도 처리해야 할 것이다.