[광화문 뷰] 샘 올트먼도 인정하는 초거대 AI의 위험성

2023-04-13 00:05
  • 글자크기 설정

[사진=로이터·연합뉴스]


지난 3월 23일 미국 정보기술(IT) 업계·학계 저명인사들이 연서명한 공개 서한을 통해 첨단 인공지능(AI) 시스템 개발을 중지해야 한다는 주장이 제기됐다. 이 서한의 발신처는 미국 비영리단체 ‘생명의 미래 연구소(FLI·Future of Life Institute)’다. FLI에 따르면 현재까지 3만명 이상이 연서명에 참여했다. 서명자들은 이 서한을 통해 “모든 AI 연구조직(labs)에 GPT-4보다 더 강력한 AI 시스템 훈련을 적어도 6개월 동안 당장 멈출 것”을 요구하며 GPT-4와 같은 강력한 AI 시스템의 위험성을 경고했다.

AI 챗봇 '챗GPT' 유료 버전의 기반 기술인 GPT-4는 미국의 민간 AI 연구소 오픈AI가 방대한 데이터를 활용해 사람처럼 자연스러운 대화, 글쓰기, 프로그래밍 작업을 할 수 있도록 만든 ‘초거대 AI 모델’이다. 이를 활용하면 기업이나 개인 전문가를 위해 방대한 자료를 수집·요약하는 업무 보조나 교육기관에서 지식 수준이 다른 학습자를 위한 맞춤형 교사 역할을 하는 AI 서비스를 만들 수 있다.
챗GPT 같은 서비스는 많은 사람에게 이런 기술이 잠재적으로 매우 높은 경제적 가치를 발휘할 수 있다는 기대감을 불어넣는 동시에 '거짓말'을 양산하는 데 악용될 위험성이 크다는 불안감을 키우고 있다. 역정보와 오보를 적절히 걸러내고 차단하지 못하는 사회는 공동체의 신뢰를 무너뜨리고, 진실성을 검증하기 위한 사회적 비용 부담을 가중시킨다. 챗GPT는 사람과 달리 쉬지도, 지치지도 않고 무한히 많은 ‘글’과 ‘코드’를 지어낼 수 있지만 그게 엉터리인지 아닌지 분간할 능력을 갖추진 못했기 때문에, 인간 거짓말쟁이나 사기꾼보다 더 큰 피해를 초래할 수 있다. 저명인사들이 FLI 공개 서한을 통해 AI 시스템 개발 ‘일시 중지’를 촉구한 이유다.

오픈AI 설립 초기 투자자였다가 후원을 중단한 일론 머스크 테슬라 최고경영자(CEO)가 오픈AI의 기술 발전을 저지하기 위해 이런 주장에 앞장선다는 의심이 있다. 머스크가 경영하는 테슬라는 완전 자율주행 자동차와 인간형 로봇을 개발하면서 AI 기술을 연구해 왔고, 작년 그에게 인수된 사회관계망서비스(SNS) 트위터 또한 최근 광고 수익성을 개선하기 위한 AI 기술 연구에 투자하고 있다.

하지만 머스크 CEO뿐 아니라 AI 분야 세계적 석학 중 한 명으로 알려진 요슈아 벤지오 캐나다 몬트리올대 교수, 이스라엘 역사학자인 유발 하라리 히브리대 교수, 애플 공동 창업자 스티브 워즈니악 등이 연서명에 참여해 지지 의사를 표명했다. 이들은 서한을 통해 “우리는 기계가 우리의 정보 채널을 선전과 거짓으로 흘러넘치도록 놔둬야하느냐”는 물음을 던지면서 “첨단 AI는 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 들 때만 개발해야 한다”고 호소했다. 수많은 서명자 가운데 한 명인 머스크의 속내에 주목하느라 FLI 서한의 주장에 담긴 논의의 중요성을 평가 절하할 필요는 없다.

FLI는 오늘날 각국 정부와 기업이 AI 윤리 문제를 다룰 때 빈번하게 인용되는 ‘아실로마 AI 원칙(Asilomar AI Principles)’을 2017년 발표한 주체로, 이번 공개 서한을 보내기 훨씬 이전부터 AI의 부작용과 위험성을 예견하고 AI 연구 단계에서 대비책을 강조해 왔다. 아실로마 AI 원칙 발표 당시 머스크뿐 아니라 2018년 타계한 세계적 물리학자 스티븐 호킹, 현 시대 인류가 인간 지능을 뛰어넘는 AI의 탄생을 경험할 것이라고 예측한 미래학자 레이 커즈와일, 이세돌 9단과의 대국에서 승리한 구글의 알파고를 개발한 딥마인드의 CEO 데미스 하사비스 등 2000여 명이 지지 서명을 남겼다.

챗GPT 같은 서비스로 야기되는 실질적 문제 가운데 하나는 이 기술이 실제로 가능한 것 이상의 수준 높은 작업을 처리하는 데 오·남용될 여지가 매우 커졌다는 사실이다. 인간의 사고나 지적 활동에 빗댄 개념이 소개되지만 실제로 그런 AI가 수행하는 작업은 불완전한 동작을 보완하기 위해 인간의 개입을 요구한다. GPT-4를 개발한 오픈AI의 CEO인 샘 올트먼조차 이 기술을 출시한 직후 언론 인터뷰에서 “이러한 모델이 대규모 허위 정보에 사용될 수 있다는 점이 걱정된다”며 “컴퓨터 코드 작성 능력이 향상되고 있기 때문에 사이버 공격에 악용될 수 있다”는 등 신기술의 위험성을 인정했다. FLI의 서한은 인류 대다수에 이토록 뛰어난 AI를 ‘안전하게’ 사용할 준비가 안 돼 있다는 현실을 지적했다는 데 의의가 있다. 이제 AI 기술 개발뿐 아니라 사용 단계의 윤리도 깊이 고민할 때가 됐다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기