[SOH] 미국 인공지능 업체 오픈AI가 사람 음성을 학습해 모방 음성을 생성하는 인공지능(AI) 도구 '보이스 엔진(Voice Engine)'을 공개했다.
‘블룸버그 통신’ 등에 따르면 오픈AI는 3월 29일(현지시간) 자사 블로그에 '인조(Synthetic) 음성의 도전과 기회 탐색하기'라는 제목으로 보이스 엔진 사전 실험 결과를 소개했다.
15초 분량의 음성 샘플만 있으면 보이스 엔진을 이용해 화자의 기존 모국어 음성과 흡사한 수준으로 만들어 낼 수 있는 기술이다.
실제 오픈AI가 공개한 실제 사람 음성 샘플과 보이스 엔진으로 생성한 음성은 구분이 어려울 정도로 비슷한 것으로 알려졌다.
오픈AI는 지난 2022년 말 처음 개발한 보이스 엔진을 챗GPT 음성인식·읽어주기 기능과 텍스트-음성 변환 응용프로그램 인터페이스(API)에서 쓰이는 음성 기능 강화에 사용했다.
이어 이 기술의 잠재적 활용 가능성을 알아보기 위해 지난해 말부터 신뢰할 만한 소규모 그룹과 함께 비공개 테스트를 시작했다.
회사는 이 도구를 교육, 의료 분야 등에 활용할 수 있다고 설명했다. 어린이 교육을 위한 음성 해설 콘텐츠나 실시간 개인 맞춤형 응답 생성 기능, 동영상과 팟캐스트 등 콘텐츠를 여러 연어로 번역해 전 세계에 서비스하는 사례 등이다.
다만 오픈AI는 보이스 엔진이 범죄에 악용될 가능성을 고려해 정식 출시는 하지 않기로 했다. 오픈AI는 “인조 음성 기능의 오용 가능성 때문에 더 광범위한 출시에 대해서는 조심스럽게 접근하고 있다”며 “현재로서는 이 기술을 미리 보여주기(preview)만 하되 널리 출시하지는 않기로 했다”고 밝혔다.
이어 “사람의 목소리를 닮은 음성을 생성하는 것은 심각한 위험을 야기하며, 선거가 있는 해에는 특히 더 그렇다는 것을 인지하고 있다”며 “우리는 미국과 해외의 정부, 미디어, 엔터테인먼트, 교육, 시민사회 등 다양한 분야와 협력해 그들의 피드백을 반영하기 위해 노력하고 있다”고 설명했다.
앞서 지난 1월 미국에서는 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 조 바이든 대통령을 사칭한 가짜 전화가 주민들에게 걸려 와 투표 거부를 독려하는 사건이 벌어져 음성 조작에 대한 공포가 현실화한 바 있다.
오픈AI는 “현재 보이스 엔진을 테스트 중인 파트너들은 당사자의 동의나 법적 권리 없이 개인이나 단체를 사칭하는 것을 금지하는 사용 정책에 동의했다”며 “보이스 엔진에서 생성된 모든 음성의 출처를 추적하기 위한 워터마킹 등 일련의 안전 조치를 구현했다”고 했다.
아울러 정보 안전을 위해 은행 계좌나 민감한 정보에 접근할 수 있는 보안 조치에서 음성 기반 인증 방식을 폐지할 것도 권고했다.
블룸버그는 "오픈AI가 사람의 목소리를 흉내 낼 수 있는 기능을 공개하며 AI 기술의 새로운 지평을 열었다"면서도 "딥페이크(AI로 만든 영상이나 이미지, 음성 조작물) 위험에 대한 불안감도 일으키고 있다”고 지적했다.
이연화 기자
(ⓒ SOH 희망지성 국제방송 soundofhope.kr)