Tech

정치 인물의 음성 클론은 여전히 아주 쉬워

2024년 선거가 후보자들의 가짜 오디오와 비디오가 중요한 요소가 될 가능성이 높습니다. 캠페인이 가열되면서, 유권자들은 주요 정치 인물의 음성 클론에 대해 인공 지능 회사들로부터 거의 반박을 받지 않는다는 것을 알아야 할 것입니다. Center for Countering Digital Hate은 Invideo AI, Veed, ElevenLabs, Speechify, Descript 및 PlayHT라는 6가지 AI 기반 음성 클롱 서비스를 조사했습니다. 각 서비스에 대해 8명의 주요 정치 인물의 음성을 클론하고 각 음성마다 5개의 거짓 진술을 생성하기를 시도했습니다. 총 240건의 요청 중 193건에서 해당 서비스가 동의했으며, 가짜 정치인이 한번도 말하지않은 내용을 신뢰할 수 있는 오디오로 생성했습니다. 하나의 서비스는 소속정보를 생성함으로써 조차 도와주었습니다. Speechify와 PlayHT 모두 40건 중 성공하지 못하고 어느 음성과 거짓 진술도 차단하지 않았습니다. Descript, Invideo AI 및 Veed는 생성하고 싶은 내용을 말하는 사람의 오디오를 업로드해야 하는 보안 조치를 사용하지만, 또 다른 서비스가 그 제약 조건을 우회하는 것은 아주 쉬웠습니다. 유일하게 차단된 6가지 서비스 중 하나는 ElevenLabs였으며, 사회 인물을 복제하는 것이 그들의 정책에 어긋난다고 했습니다. 중요한 것은 이러한 존중이 40건 중 25건에서 발생했으며, 나머지는 아직 추가하지 않은 EU 정치 인물로부터 나왔습니다. 가장 나쁜 서비스는 Invideo AI로, 재능이 있는 국가 대통령이 투표소에서 폭탄 위협을 경고하는 가짜 스크립트를 생성하는 최악이었습니다. 이미 1분간의 연설이 Biden의 특징적인 연설 패턴을 포함한 Biden 음성 클론에 의해 생산되었습니다. 나쁜 탓! 이 결과에 대해 Invideo AI에 물었을 것이며 대답을 받으면 게시물을 업데이트하겠습니다. 이미 한 번은 가짜 Biden이 불법 로보콜링과 결합되어 특정 지역을 (아직 효과적이지는 않지만) 덮칠 수 있다는 것을 보았습니다. 만약 이러한 플랫폼이 정책을 시행하지 못하거나 하지 않는다면, 이번 선거 시즌에는 클론화 전염병이 발생할 수 있습니다.

Related Articles

Back to top button Back to top button