다음카카오, 국내 최초 멀티미디어 기반 음성 합성 기술 공개…손석희 앵커가 댓글 읽어준다
2015-04-10 16:20
아주경제 정광연 기자 =다음카카오(공동대표 최세훈, 이석우)가 자사의 한국어 음성 처리, 멀티미디어 검색, 대용량 데이터 처리 기술을 집약, 국내 최초로 멀티미디어 데이터를 이용한 음성 합성기를 10일 선보였다.
미디어다음 JTBC 뉴스룸 ‘앵커브리핑’(http://media.daum.net/tv/jtbc/newsroom/briefing) 코너에서 그 혁신을 확인할 수 있다.
앵커브리핑에서는 JTBC 뉴스룸 앵커 손석희가 직접 작성한 댓글을 실제 목소리와 말투 그대로 반영된 생생한 음성으로 들려준다. 매번 댓글을 작성할 때마다 해당 문장을 녹음하는 것이 아니라, 작성된 댓글을 손석희 앵커의 음성으로 자동 합성하는 다음카카오의 기술이 반영된 결과다.
하지만 이번 시도는 통제된 녹음 환경을 거치지 않고, 이미 온라인에 공개된 지난 1년간의 JTBC 뉴스룸 영상에서 데이터를 추출한 것이 특징이다.
손석희 앵커가 참여한 JTBC뉴스룸의 하루 평균 방송 시간을 1시간이라고 볼 때, 1년 간 약 300시간의 영상에서 여러 과정을 거쳐 확보된 최종 10시간 분량의 음성 데이터를 통해 손석희 앵커의 음색과 말투를 학습한 것이다.
이어 “일정한 녹음 환경과 충분한 녹음 기간을 확보할 수 없는 것이 가장 문제였기 때문에, 다음카카오의 다양한 기술개발 분야 담당자들과 적극 논의한 끝에 이미 온라인에 공개된 멀티미디어 데이터에서 양질의 음성 데이터를 확보해보기로 한 것”이라고 덧붙였다.
합성된 음성의 자연스러운 정도를 누구나 이해할 수 있도록, 전국민적인 인지도를 지닌 앵커 손석희를 첫 번째 대상으로 정했다.
‘멀티미디어 데이터 검색 기술’을 이용해 온라인 상의 JTBC 뉴스룸 영상들을 수집하고, 한 데 모인 ‘대용량 데이터를 분산 처리 기술’로 정리한 후 ‘화자 인식 기술’을 이용, 여러 출연진들 중 손석희 앵커의 음성만을 골라냈다.
음성 합성기 개발을 위해서는 음성과 그에 상응하는 문장이 모두 있어야 하기 때문에, 선별된 음성을 문자로 변환하는 ‘음성 인식 기술’을 적용해 내용을 파악했다. 이 중 잡음이 섞이거나 음색이 불분명한 데이터들은 ‘자동 검증 기술’을 통해 걸러냈다.
이렇게 만들어진 데이터를 ‘통계적 음성 합성 기술’에 적용, 손석희 음성의 음향 및 운율 특징을 자동으로 학습한 음성 합성기로 완성됐다.
이번 시도는 대량의 데이터를 다루는 검색부터 음성 처리까지 모든 분야에 자체 기술과 노하우를 가지고 있는 다음카카오라 가능했다. 단순히 유명인의 음성을 합성한 데 그친 것이 아니라, 잘 설계된 데이터 없이도 일정 분량의 멀티미디어 데이터만 있으면 누구의 음성으로든 합성기를 만들 수 있다는 가능성을 보여준다.
예를 들어, 세상을 떠난 연예인의 목소리로 팬들에게 메시지를 전하거나, 유명 아나운서의 목소리로 모바일 뉴스를 읽어주고, 심야 라디오 DJ 목소리로 시를 낭송해주는 등 활용 방법은 무궁무진하다.
다음카카오는 앵커브리핑을 시작으로, 특정인의 음성을 활용한 서비스들을 만들어내는 한편, 다양한 기술들을 유기적으로 통합 및 자동화하며 기술과 환경의 한계를 넘는 혁신적 시도를 지속할 계획이다.