[테크인트렌드] 확산하는 'AI 공포증'..."우려하긴 아직 이르다" 주장도

2024-11-12 05:00

[사진=게티이미지뱅크]

AI 기술개발에 대해 방관적 시각을 가진 도널드 트럼프 전 대통령의 대선 승리로 인해 ‘AI 기술 회의론자’들은 큰 우려에 빠졌다. 안전과 윤리가 확보되지 않은 상태의 AI 기술개발은 인간을 해칠 수 있다는 시각인데, 트럼프 전 대통령은 AI의 안전성에 대한 경각심이 없다는 지적이다.
 
전문가들은 AI 기술개발에 있어 4년은 수천년의 인류 역사와 같다고 말한다. 안전성을 중시하지 않은 AI 1위 강국 정책이 초래할 결과를 예상할 수 없다는 의미다. 다만 대중적인 입장은 ‘단기적’으로는 AI 기술개발이 인류에 위협이 될 수 없다는 것이다.
 
AI가 AI를 개발하는 시대...커져가는 'AI 회의론자'들의 걱정
 
지난 6월 오픈AI의 연구원인 레오폴드 아센브레너(Leopold Aschenbrenner)는 '상황 인식(Situational Awareness)‘ 이라는 보고서를 통해 “AI가 곧 스스로 AI 연구를 수행할 수 있을 만큼 강력해져 재귀적 자기 개선과 통제 불능의 초지능이 실현될 것”이라는 주장을 했다. 
 
자기개선형 AI가 가져올 ’지능폭발‘ 개념은 과거부터 꾸준히 제기돼왔다. 옥스퍼드 대학의 철학 교수이자 인류 미래연구소의 창립 소장인 닉 보스트롬(Nick Bostrom)은 자신의 저서 <초지능(Superintelligence)>을 통해 지능폭발의 개념을 소개했으며, 영화 ’HER’에서도 이 같은 내용이 언급된다.
 
영국의 수학자이자 암호학자 I.J 굿(Good)은 이미 1965년 “초지능 기계는 모든 인간의 모든 지적 활동을 훨씬 능가할 수 있는 기계로 정의하자”며 “초지능 기계는 더 나은 기계를 설계할 수 있다. 그러면 의심할 여지 없이 '지능 폭발'이 일어나고 인간의 지능은 훨씬 뒤처질 것”이라고 발언하기도 했을 만큼 AI에 대한 회의론, 경계론은 오랜 논쟁거리였다.
 
이미 AI가 만든 음악, 영상 등 각종 콘텐츠가 인간의 결과물을 넘어섬은 물론 챗GPT 등 생성형 AI의 성능이 각종 보고서 및 논문을 대신할 수 있는 수준에 이른 상황에서 AI가 AI를 개발하는 것은 더 이상 ‘공상’이 아니다. AI에게 AI개발자의 작업을 학습시키는 방법만으로도 자기개선형 AI는 개발 가능하다.
 
실제 구글의 전직 AI개발자로 일본에 본사를 둔 AI스타트업 사카나(Sakana)는 ‘AI과학자(AI Scientist)’라는 시스템을 개발했다. AI과학자는 각종 연구 문헌을 읽고 새로운 아이디어를 생성하며, 이를 실증하는 실험을 설계 및 수행해, 연구결과를 보고하는 논문을 작성한다. 이 작업에 대한 평가 역시 스스로 수행하면서 개발에 필요한 모든 과정을 인간의 도움 없이 수행한다.
 
AI과학자는 AI관련 기술도 내놨는데, 변압기 기반 L언어모델, 확산모델, 신경망 학습 역학에 대한 연구를 수행하고 관련 논문도 출판했다. 이 작업은 챗GPT-o1이 출시되기 전에 수행된 것으로, 발전된 생성형AI를 기반한다면 더 큰 결과물을 내놓을 것으로 기대된다.
 
"아직은 개발에 힘써야할 때...부작용 우려 이르다"
 
이 같은 기술적 배경이 회의론자들의 걱정을 키우고 있다. 미국을 중심으로 AI 강국이 AI기술개발에 대한 윤리적 기준을 규정하지 않는다면 걷잡을 수 없는 혼란이 초래될 수 있다는 주장이다. 특히 바이든 정부의 AI행정명령을 폐지하고 AI 기술 규제 완화를 예고한 트럼프 당선자에 대한 우려가 커지는 상황이다.
 
그럼에도 불구하고 AI에 대한 회의론을 기우(杞憂)로 치부하는 시각도 존재한다. AI를 인터넷, 스마트폰의 발명과 비교하며 거스를 수 없는 흐름이라는 시각이다. 특히 올해 노벨 물리학·화학상 수상자에 AI 관련 전문가 4명이 이름을 올리면서 ‘인류사를 바꿀 발명’으로 보는 시각도 존재한다. 이런 주장을 펼치는 집단은 대개 트럼프 전 대통령의 당선을 환영하는 분위기다.
 
지난 7월 더 이코노미스트(The Economist) 보도에 따르면 현재까지 AI로 인한 기업의 경제적 영향은 미미한 수준이다. 현재는 투자 단계며 아직 AI로 인한 사회변화가 체감되는 수준은 아니라는 분석이다.
 
같은 입장을 가진 전문가들은 AI에 대한 우려와 경계를 나타내기에는 아직 이르다고 보고 있다. 일례로 스마트폰이 가져온 인류 생활상 변화에 대한 부작용은 지금에 와서야 아이들의 스마트폰 중독 등으로 나타나고 있다. AI 기술개발에 대한 우려 역시 시간이 지나야 한다는 입장이 대중적으로 받아들여지고 있는 상황이다.
 
다만 그러면서도 AI 안전 연구에 대한 필요성은 꾸준히 언급된다. 어떤 기술보다 발전속도가 빠른 만큼 규제완화와 함께 선제적 대응 역시 중요하다는 입장이다.