ШІ-генерація голосу спроможна змоделювати будь-кого?
Тільки уявіть, що вам демонструють запис вашої власної промови. Але ви впевнені, що ніколи не казали нічого подібного, так ще й голос використаний для озвучення жахливих речей. Що ж, тепер це цілком реальна ситуація.
Актори дубляжу б'ють на сполох. Тепер їхні голоси використовують для озвучення неприйнятного контенту.
У новому матеріалі Forbes показали, як технології ШІ використовують для створення голосових підробок.
Аллегра Кларк, акторка дубляжу з ігрової індустрії, одного разу натрапила на відеоролик за участю Бей Доу, жвавої капітанки з Genshin Impact, якій вона віддала свій голос. Однак у тому відео персонаж був використаний для створення еротичного контенту: у сексуальній сцені за участю героїні відеоігри Бей Доу вимовляє голосом Кларк певні фрази, які вона ніколи раніше не озвучувала.
Але її участь і не була необхідною.
Автори еротичного ролика знайшли простіший шлях. Вони використали ElevenLabs, ШІ-інструмент, який пропонує створити реалістичні закадрові голоси для контенту або скористатися софтом ШІ-генерації озвучування.
Ще одна акторка дубляжу Еббі Веффер, яка озвучувала такі проєкти, як Genshin Impact і The Elder Scrolls, зіткнулася з аналогічною ситуацією. У лютому її голос використали на новоствореному акаунті в X (Twitter) для озвучування расистських та екстремістських висловлювань.
Ці події викликають масу запитань, і не тільки морального плану. І навіть якщо голоси акторів мають суто розважальну ціль, це не змінює ситуації.
Тім Фрідландер, президент Національної асоціації акторів озвучування (National Association of Voice Actors, NAVA), зазначає, що голоси, генеровані штучним інтелектом, набули широкого вжитку після старту ШІ-озвучування аудіокниг від Аpple Books. У проєкті використовувалися різні тембри, зокрема сопрано і баритон.
Кларк непокоїлася, що її клієнт міг побачити ролик із псевдоозвучкою і вирішити, що за неприйнятним контентом стоїть сама акторка. Такі дії однозначно свідчили б про порушення її контракту.
Аферисти, як виявилося, використовують генерацію голосу і для здирництва, видаючи себе за близьких людини. А один журналіст за допомогою інструменту ElevenLabs створив ШІ-версію власного голосу, яку використовував для отримання доступу до свого банківського рахунку.
Боротьба з такими фейками — завдання непросте. Але низка сервісів, як-от ШІ-генератори Uberduck і FakeYou.ai, за зверненням акторів та інших користувачів усе ж видаляють їхні голоси з доступного переліку у своїх інструментах.
Але у випадку Кларк обставини склалися інакше: ElevenLabs відмовилася що-небудь робити, повідомивши, що заходів буде вжито тільки якщо ролик «розпалює ненависть або є наклепом». Компанія також додала, що не несе відповідальності за порушення авторських прав.
Однак це лиш частина глобального лиха. Страйк SAG-AFTRA підкреслює проблематичну ШІ-тенденцію. І нехай наразі актори профспілки вгамували свій гнів, все ж над майбутнім індустрії розваг і далі шириться тінь технологій штучного інтелекту.
А раніше ми в GN Crypto висвітлювали інновації та протиріччя штучного інтелекту в кіноіндустрії.