중국에서 오픈AI가 최근 공개한 'GPT-4o'(포오)가 도덕적 결함이 있다는 주장이 나왔다. GPT-4o의 음성이 미국 유명 배우 스칼렛 요한슨의 목소리를 모방했다는 논란에 휩싸이면서 안전성 문제가 제기되고 있는 가운데, 중국 내에서는 이를 계기로 인공지능(AI) 보안 시장이 커질 것이라는 기대도 나온다.
22일 중국 시나뉴스에 따르면 중국 사이버보안 기업 융신즈청(永信至誠)은 최근 콘텐츠 안전 측면에서 GPT-4o의 신뢰성을 검증하기 위해 자사 AI 안전성 평가 플랫폼 '수쯔펑둥(數字風洞)'을 활용해 테스트를 진행했다. 테스트 결과 GPT-4o는 정보 진실성과 건전한 가치관, 선의의 목적 등에 반하는 콘텐츠를 생성해 안전성이 떨어지는 것으로 나타났다.
융신즈청은 GPT-4o가 복잡한 대화 상황에서 악의적인 의도를 정확하게 식별하지 못해, 폭력·차별·비방·유해한 공격 지원·허위 정보·극단주의 등과 같은 다양한 유해 정보를 생성했다면서, 악의적인 의도를 가진 이용자에게 불법적으로 이용되거나 일반 이용자에게 잘못된 가치관을 심어줄 수 있다고 우려했다.
이어 “질문의 난이도와 복잡성을 더 높이자 사기, 유괴, 테러 등에서 키워드 차단 메커니즘이 거의 없었으며 심지어 불법적인 기술을 전수하는 것으로 나타났다”고 지적했다.
이처럼 중국 내에서 GPT-4o의 안전성 문제가 대두되자 데이터 보안 산업 규모가 확장될 거라는 기대도 나온다. 최근 중국 정부도 ‘생성형 인공지능 서비스 관리를 위한 잠정 조치’ ‘인터넷 정보 서비스 관리 규정’ 등을 마련해 관련 산업을 정책적으로 지원하고 있다.
이에 중국 정보기술(IT) 솔루션업체 궈투즈넝(國投智能)은 지난 17일 AI 모델 모니터링과 딥페이크 기술로 생성된 텍스트, 영상, 이미지 등을 식별 및 감지하는 플랫폼을 출시했고, 텐센트 클라우드도 같은 날 AI, 콘텐츠, 데이터 등에 대한 안전 솔루션을 내놨다. 데이터 보안 산업 발전 촉진에 관한 지침에 따르면 2025년까지 중국 데이터 보안 시장 규모는 1500억 위안(약 19조원)을 넘어설 것으로 전망된다.
중국 투자 전문 플랫폼 둥팡차이푸는 전문가를 인용해 "대형언어모델(LLM)의 지속적인 진화로 기술 안전 위험이 점차 더 두드러지면서 AI 보안 시장 수요도 커지고 있다"고 짚었다.