ИИ-генерация голоса способна смоделировать любого?
Только представьте, что вам демонстрируют запись вашей собственной речи. Но вы уверены, что никогда не говорили ничего подобного, так ещё и голос использован для озвучивания ужасных вещей. Что же, теперь это вполне реальная ситуация.
Актеры дубляжа бьют тревогу. Теперь их голоса используют для озвучки неприемлемого контента.
В новом материале Forbes показали, как технологии ИИ используются для создания голосовых подделок.
К примеру, Аллегра Кларк, актриса дубляжа из игровой индустрии, однажды наткнулась на видеоролик с участием Бэй Доу, бойкой капитанши из Genshin Impact, которой она отдала свой голос. Но в том видео персонаж был использован для создания эротического контента: в сексуальной сцене с участием героини видеоигры Бэй Доу произносит голосом Кларк определенные фразы, которые она никогда раньше не озвучивала.
Но ее участие и не требовалось.
Авторы эро-ролика нашли более легкий путь. Они использовали ElevenLabs — ИИ-инструмент, который предлагает создавать реалистичные закадровые голоса для контента или воспользоваться софтом ИИ-генерации озвучки.
Ещё одна актриса дубляжа Эбби Веффер, которая озвучивала такие проекты, как Genshin Impact и The Elder Scrolls, столкнулась с аналогичной ситуацией. В феврале ее голос был использован на новосозданном аккаунте в X (Twitter) для озвучивания расистских и экстремистских высказываний.
Эти происшествия вызывают массу вопросов, и не только морального плана. И даже если голоса актеров служат сугубо развлекательным целям, это не меняет ситуации.
Тим Фридландер, президент Национальной ассоциации актеров озвучивания (National Association of Voice Actors, NAVA), отмечает, что голоса, генерируемые искусственным интеллектом, нашли широкое применение после старта ИИ-озвучки аудиокниг от Аpple Books. В проекте использовались различные тембры, в частности сопрано и баритон.
Кларк беспокоилась, что ее клиент мог увидеть ролик с псевдоозвучкой и решить, что за неприемлемым контентом стоит сама актриса. Такие действия однозначно означали бы нарушение её контракта.
Аферисты, как выяснилось, используют генерацию голоса и для вымогательства денег у людей. Для этого мошенники выдают себя за близких человека. А один журналист с помощью инструмента ElevenLabs создал ИИ-версию собственного голоса, которую он использовал для получения доступа к своему банковскому счету.
Борьба с такими фейками — задача не из легких. Но ряд сервисов, таких как ИИ-генераторы Uberduck и FakeYou.ai, при обращении актеров и других пользователей все же удаляют их голоса из доступного перечня в своих инструментов.
Но в случае Кларк дело обстояло иначе: ElevenLabs отказалась что-либо предпринимать, сообщив, что примет меры только если ролик «разжигает ненависть или является клеветой». Компания также добавила, что не несет ответственности за нарушение авторских прав.
Однако это лишь часть глобального бедствия. Забастовка SAG-AFTRA подчеркивает проблематическую ИИ-тенденцию. И пока актеры профсоюза умерили свой гнев, все же над будущим индустрии развлечений и дальше расползается тень технологий искусственного интеллекта.
А прежде мы в GN Crypto освещали инновации и противоречия искусственного интеллекта в киноиндустрии.