Дипфейки создают ложные воспоминания: исследование
Дипфейки, создаваемые АI, обычно считают простым наложением изображений лиц в видеоряде. На самом деле это сложная технология. Как минимум две генеративные сети по очереди создают и сравнивают два изображения, обмениваются результатами.
В итоге сама нейросеть уже не в состоянии отличить оригинал от подделки. Психологи изучают последствия воздействия дипфейков и создаваемых ими ложных воспоминаний на аудиторию.
Исследование
Проблема воздействия методики синтеза изображения, основанной на искусственном интеллекте, или дипфейков (deepfake от deep learning — «глубинное обучение» + fake — «подделка») стала предметом недавнего исследования группы психологов Face/Off: Changing the face of movies with deepfakes. Оно стало ответом на растущие опасения о том, что дипфейки могут распространять дезинформацию и создавать ложную память. В ходе эксперимента ученые показывали оригинальные ремейки и дипфейковые ролики специально отобранной группе людей.
«Участники просматривали клипы или описания ремейков фильмов. Некоторые из них были настоящими студийными ремейками (например, “Кэрри”, “Расхитительница гробниц”). В то время как другие были дипфейками: Брэд Питт в “Сиянии”, Уилл Смит в “Матрице”, Шарлиз Терон в “Капитане Марвел”, Крис Пратт в “Индиане Джонсе”»,— описала ход исследования Джиллиан Мерфи, преподаватель прикладной психологии в Университетском колледже Корка, Ирландия.
Дальнейшее обсуждение просмотренных кинофильмов (как настоящих, студийных, так и фейковых ремейков) показало, что в головах у зрителей благополучно образовалась каша изо лжи и фактов. Люди не просто не отличили реальное кино от кинофильма, созданного AI. Их психика сформировала еще и истории, связанные с кинолентами, которых никогда не существовало. Например, участники исследования на полном серьезе начинали рассказывать, как в таком-то году кто-то в Голливуде переснял «Индиану Джонса» (увиденный ими дипфейк). Они «помнили» реакцию других зрителей на этот ремейк и рассуждали, насколько удачной оказалась кинопремьера и насколько прибыльным был дальнейший прокат.
В общем, на лицо формирование ложных воспоминаний. Они возникли у 49% испытуемых, при этом многим участникам лучше запомнился поддельный ремейк, чем оригинальный фильм. Есть о чем задуматься, но…
Что такое память
Как отметили исследователи, все-таки человеческая память не работает по прямолинейному принципу. Это не видеокамера. Воспоминания реконструктивны и меняются под воздействием информации, полученной в дальнейшем. Они — результат логических выводов, ментального опыта, оценок окружающих и даже воображаемых ситуаций или снов человека. Таким образом, эффект дезинформации человек может создать самопроизвольно, без всякого вмешательства AI.
В то же время исследователи предполагают, что ложные воспоминания могут формироваться текстами, написанными с привлечением LLM (больших языковых моделей), вирусной рекламы и коротких роликов, обработанных искусственным интеллектом. Впрочем, путаницу в голове у зрителя и читателя могут вызвать даже обычные авторские видео и текстовые описания.
Главное опасение заключается в том, что гиперреалистичные дипфейки как форма поддельных медиа могут сделать более восприимчивыми к ложным воспоминаниям большие группы людей (вплоть до глобального масштаба). Но прямой доказательной базы этому пока собрать не удалось.
Плюсы и минусы
Как сказано в исследовании, дипфейки, которыми первоначально занималось профессиональное Reddit-сообщество, приобрели дурную славу, как только доступ к технологии получила широкая интернет-аудитория. В 2019 году компания DeepTrace, специализирующаяся на кибербезопасности, определила, что 95%–96% дипфейковых роликов в сети — это созданная с помощью AI порнография. Лица знаменитостей и политиков накладывали на лица порноактеров. Практически все эти ролики были созданы без их согласия. Но в том же 2019 году на сайте Collider дипфейкам была дана прямо противоположная оценка.
«В течение пяти лет дипфейки разовьются до такой степени, что, вероятно, мы будем смотреть, как Мэрилин Монро играет одну из главных ролей вместе с Хитом Леджером в совершенно оригинальных художественных фильмах»,— цитируют исследователи статью издания.
Действительно, «присутствие» AI на съемочных площадках позволяет легко накладывать лица героев на лица дублеров и каскадеров. Отпадает необходимость сложного дорогостоящего грима и изготовления специальных костюмов. Режиссерам не нужно усложнять сцены, чтобы «спрятать» лицо двойника.
То есть технология дипфейков открыла в киноиндустрии возможность быстрого и дешевого производства лент. Несмотря на то, что большинство аудитории, охваченной исследованием, выразило негативное отношение к дипфейкам в кино- и видеопродукции, этот тренд остановить уже нельзя. Осталось разобраться, какие механизмы защиты зрителей от появления избыточных ложных воспоминаний должны быть выработаны.
При этом сами исследователи сочли, что киношные дипфейки все-таки не оказывают критического влияния на память зрителей. Ученые склонны рассматривать фейкового Брэда Питта или Шарлиз Терон не как угрозу психике любителей кино, а как культурное явление.
Тем не менее, как мы уже писали, специалисты сейчас обсуждают необходимость скорейшего введения маркеров и водяных знаков для текстов, созданных с помощью больших языковых моделей. Вполне возможно, что подобные маркеры потребуются и для видеопродукции, созданной с привлечением AI. По крайней мере это будет информировать зрителей о том, что они смотрят — оригинальное произведение или дипфейк.