[Tech in Trend] 더 똑똑해지는 AI 기술에…지구촌 "안전성 강화" 한목소리

2023-11-06 00:05
지난 1일(현지시간) 전 세계 28개국 '블레츨리 선언' 서명
지난달 美 바이든도 행정명령…'딥페이크 악용한 사기' 우려
한국도 AI 규제 흐름 동참…尹 '디지털 권리장전' 소개
구글 등 국내외 테크 업계, AI 윤리 강화하는 등 행보

인공지능 관련 이미지[사진=게티이미지뱅크]
 
20년 전 처음 등장한 인공지능(AI) 기술이 계속 고도화하면서 세상도 빠르게 변하고 있다. AI에 회의록 녹음본을 주면 음성을 텍스트로 바꾸고 핵심 내용을 정리해준다. 지난해 오픈AI가 챗봇 '챗GPT'를 출시하면서 생성AI 기술이 더 주목받기 시작했고 이미지나 영상을 만들어내는 서비스들도 최근 대거 등장했다. 이용자가 텍스트나 말로 명령어를 입력하기만 하면 된다. 얼굴 합성 AI로 영상 속 발표자를 마음대로 바꿀 수 있는 기술도 점점 정교해지고 있다.

그러나 기술이 급속도로 발전한 데에 따른 부작용도 심하다. 무분별한 AI 활용을 단속할 규제가 없다 보니 기술 악용 사례가 늘고 있는 것. 온라인상 무분별하게 퍼진 가짜 사진이나 영상은 사회·경제적으로도 악영향을 끼친다. 이에 국가 차원에서 AI를 규제해야 한다는 목소리가 커지고 있는 상황이다. 해외 각국 정부도 이에 동조하고 있다. 온라인 포털이나 플랫폼을 운영하는 테크 업체들도 AI 윤리 강화 등 대응에 나서고 있다.

◆美·英·中·韓 등 28개국 AI 규제 나서

5일 미국 월스트리트저널 등 외신에 따르면 지난 1~2일(현지시간) 영국 블레츨리 파크에서 열린 첫 AI 안전 정상회의에서 미국·영국·중국·한국을 비롯한 28개국과 유럽연합(EU)은 AI가 가져올 위험성에 대처하고 관련 규제가 필요하다는 데 뜻을 모았다.

해당 국가들이 서명한 '블레츨리 선언'에는 AI 안전 테스트를 기술 개발사에만 맡길 게 아니라 각국 정부도 역할을 해야 한다는 내용이 담겼다. 앞으로 AI 모델을 외부에 배포하기 전에 개발사뿐 아니라 각국 정부도 안전 테스트 실시에 협조해야 한다. AI가 초래할 수 있는 국가·사회적인 문제에 대비하기 위해서다.

블레츨리 선언에는 스스로 생각하고 추론할 수 있는 고성능 AI 모델인 '프런티어AI'도 등장했다. 이 모델은 인간보다 지능이 뛰어나 전쟁 시나리오를 자체적으로 바꾸는 것도 가능하다. 블레츨리에 서명한 국가들은 AI 학자이자 유엔 과학자문위원회 회원인 요슈아 벤지오 캐나다 몬트리올대 교수를 지원해 프런티어AI의 위험성과 안전 대책 등을 추가 연구하고 그 결과를 보고서로 내놓기로 했다.
 
[그래픽=김효곤 기자]

회담 주최국인 영국 리시 수낵 총리는 "우리 자손들 미래에 AI와 같은 기술적 진보보다 더 변혁적인 것은 없다"고 말했다. 이어 "우리는 그들을 위해 AI가 안전하고 책임 있는 방식으로 발전하도록 해야 할 책임이 있다"고 강조했다.

요슈아 벤지오 교수도 "그간 우리는 AI 기술력을 향상하려는 목적으로 (여러 기업과 기관에서) 대규모 투자를 단행하는 것을 봐왔다"면서 "하지만 AI 안전이나 거버넌스 등 대중을 보호하기 위한 측면에 대한 투자는 충분히 이뤄지지 않았다"고 지적했다. 각국과 국제적 공조로 프런티어AI 안전에 힘쓸 수 있어 기쁘다는 말도 덧붙였다.

이번 AI 안전 정상회의에 참여한 인원은 100여 명이나 된다. 카멀라 해리스 미국 부통령, 우르줄라 폰데어라이엔 EU 집행위원장, 안토니우 구테흐스 유엔 사무총장 등 정상급 인사뿐 아니라 샘 올트먼 오픈AI 최고경영자(CEO), 일론 머스크 테슬라 CEO 등 정·재계 인사가 함께 자리했다. 구글 딥마인드·메타·마이크로소프트(MS)·엔비디아 등 기업도 참석한 것으로 알려졌다.

◆딥페이크에 칼 빼든 백악관

이보다 앞선 지난달 30일에는 조 바이든 미국 대통령이 생성AI 관련 규정을 담은 행정명령에 서명했다. 업체가 AI 서비스 제공 시 안전 테스트 결과를 정부와 공유해야 하는 등 개입이 필요하다는 게 핵심이다. 최근 영국 블레츨리 선언과도 맥을 같이한다.

앞으로 기업은 국가 안보나 경제, 공중보건 등 측면에서 위험을 초래할 수 있는 AI 모델을 테스트할 때 연방 정부에 이를 반드시 통보해야 한다. 또한, 이번 행정명령에는 AI가 만든 콘텐츠에 구분 표시(워터마크)하는 방안도 언급됐다. 이에 따라 미국 상무부는 이른 시일 내에 AI 콘텐츠 인증과 워터마크에 대한 지침을 세울 계획이다.

바이든 대통령은 행정명령 서명에 앞서 공개 연설을 통해 본인이 직접 겪은 딥페이크 경험을 소개하기도 했다. 딥페이크는 AI 딥러닝(deep learning)과 페이크(fake)를 합성한 말로, AI가 기존 사진·영상에 특정 인물 얼굴을 조합하는 기술이다.

바이든 대통령은 "딥페이크는 사람 명예를 훼손하고 가짜뉴스를 퍼트리는 한편 사기를 저지른다"고 꼬집었다. 또한 본인 딥페이크 영상을 본 적이 있다면서 "그것을 보고 '내가 도대체 언제 저렇게 발언했지'라고 말한 적 있다"고 설명했다.

딥페이크를 앞세운 사기 우려도 제기했다. 그는 "AI 사기꾼들은 누군가의 목소리를 3초 녹음해 여러분과 여러분 가족을 속일 수 있다"고 말했다. 이를 통해 대규모 금전 사기를 당할 가능성이 있다는 점도 짚었다.

생성AI 기술 발달로 이미지·영상 조작은 더 쉬워졌다. 기존에는 한 개 딥페이크 영상을 만들기 위해 특정 인물의 표정이나 얼굴 각도별 영상 자료가 대규모로 필요했지만, 이제는 그렇지 않다는 얘기다. 생성AI 기술이 쓰이면 딥페이크 콘텐츠를 더 빠른 속도로 다수 제작할 수 있게 된다.
 
리시 수낵 영국 총리와 일론 머스크 테슬라·스페이스X·엑스 최고경영자가 지난 2일(현지시간) 영국에서 열린 AI 안전 정상회의에 참석해 AI 안전 확보 방안에 대해 논의했다. [사진=EPA·연합뉴스]
◆한국도 AI 규제 흐름에 동참

실제로 올해 3월 미국 공화당 대선주자인 도널드 트럼프 전 대통령이 수갑을 차고 연행되는 사진 여러 장이 인터넷상에 빠르게 퍼졌는데 이는 생성AI가 만들어낸 가짜 사진이었다. 미국 국방부 청사 '펜타콘'이 화재로 검은 연기에 휩싸인 사진 역시 허위였다. 펜타곤이 불에 탔다는 소식에 당일 오전 한때 미국 증시도 출렁이는 등 영향을 받았다.

윤석열 대통령은 블레츨리 파크에서 열린 AI 안전 정상회의에 비대면으로 참가해 "AI를 비롯한 디지털은 오로지 인간의 자유와 후생을 확대하는 데 기여해야 하고 개인과 사회의 안전에 위협이 되지 않아야 한다"고 강조했다.

또한 "챗GPT를 비롯한 생성AI 등장이 우리 삶에 편익을 증진하고 산업 생산성을 높여줬다"면서도 "디지털 격차가 경제 격차를 악화하고, 급증하는 가짜뉴스가 우리 자유를 위축시키고 선거 등 민주주의 시스템을 위협할 수 있다"고 짚었다.

윤 대통령은 각국 정상들에게 '디지털 권리장전'을 소개했다. 디지털 권리장전은 윤 대통령이 지난 9월 AI 디지털 시대에 추구해야 할 기본 가치와 철학을 반영해 만든 선언문이다. 자유·공정·안전·혁신·연대 등 5대 원칙을 중심으로 하며 기술 혁신으로 누리는 혜택을 모두가 함께 나눈다는 의미며 '공동 번영'이 핵심 키워드다.

이번 회담에서 한국은 내년 5월 AI에 대한 안전한 활용을 논의하는 자리인 '미니 정상회의' 공동 개최국으로 선정되기도 했다. 미니 정상회의는 1년 뒤 프랑스에서 열리는 2차 정상회의에 앞서 열린다. 1차 정상회의 후속 조치 상황을 중간 점검하기 위한 목적이다. 앞으로 6개월 뒤 개최될 예정이다.

◆"빅테크 업체, AI 책임감 높여야"

글로벌 수장들이 한목소리로 AI 규제를 외치자 국내외 업체들도 AI 윤리 정책 등을 강화하는 등 움직임에 나섰다.

구글은 광고 분야에 이어 쇼츠·유튜브 등 영상 콘텐츠에도 AI 생성물에 표시하는 방안을 검토 중이다. 토니 레이드 유튜브 프로덕트 매니지먼트 부사장(VP)이 지난 9월 26일(한국시간) 유튜브가 아시아태평양 지역(APAC) 기자 대상으로 마련한 '메이드 온 유튜브' 온라인 브리핑 자리에서 직접 한 발언이다.

이에 더해 구글은 자사 제품을 통해 생성된 모든 이미지와 관련 조치도 실시하기로 했다. 구글 관계자는 지난달 24일 자사 웹페이지에서 "AI로 생성된 이미지는 해당 이미지에 관한 맥락 정보가 특히 중요하다"면서 "따라서 구글은 제품을 통해 생성된 모든 이미지에 메타데이터 레이블을 지정하고 신스아이디(SynthID)로 워터마크를 삽입하는 방법을 찾기 위해 노력하고 있다"고 말했다.

기업에서 더 적극적으로 AI를 악용한 콘텐츠를 막아야 한다는 주장도 나온다. AI 기술 개발 소프트웨어는 이미 오픈소스로 공개돼 있는 만큼 정부가 AI 개발을 제한한다 하더라도 이를 100% 막을 수 없기 때문이다. 온라인상 허위 정보가 대규모로 퍼지는 것을 막아 전 세계적 혼란을 줄이자는 의미다. 인터넷 포털이나 소셜미디어 등 콘텐츠 유통 플랫폼을 운영하는 업체가 그 중심 역할을 해야 할 것으로 보인다.

AI 모델을 개발 중인 한 스타트업 대표는 "현재로선 정부가 개입한다 하더라도 전 세계적인 흐름인 AI 콘텐츠 제작을 막을 수는 없을 것"이라며 "포털·플랫폼 등 업체가 AI 악용 콘텐츠로 의심되는 이미지나 영상을 빠르게 판별해 대규모 유포를 막는 것이 실질적으로 효과가 있다고 본다"고 말했다.

또한 "특히 딥페이크 영상 생산물은 배포를 위해 만들어지는 것이 많은데 배포 자체를 막으면 더 큰 부작용을 피할 수 있다"면서 "결국 AI 개발사뿐 아니라 포털·플랫폼 등 각 업체에 주어지는 책임이 더 많아지게 되는 셈"이라고 설명했다.