ИИ-дипфейки получают новую маркировку
ИИ-дипфейки распространяются по миру невероятными темпами. Поэтому необходимы решения, которые смогут предотвратить их негативные последствия.
Помните песню Эминема My Name Is?
Ее куплеты спонтанно всплывают в памяти, когда видишь перед собой изображение Папы Римского в этом эпатажном белом пуховике. Несколько смахивает на знаменитого рэпера, не так ли?
Вы уже могли встретить это изображение на просторах интернета, однако есть деталь, о которой следует знать. Его сгенерировал искусственный интеллект, но, похоже, не все люди это осознали.
Вы уже могли встретить это изображение на просторах интернета, однако есть деталь, о которой следует знать. Его сгенерировал искусственный интеллект, но, похоже, не все люди это осознали.
«Наступил бум ИИ-инструментов для генерации изображений, и у этого есть конкретная причина: результаты забавные, процесс увлекателен, а модели просты в применении. В то время как подобные технологии открывают новые возможности для творчества, они также вызывают и опасения относительно злонамеренного применения ИИ. Изображения могут намеренно использовать с целью обмана. Даже те из них, которые были созданы исключительно для развлечения, могут завируситься, что в перспективе тоже может ввести некоторых людей в заблуждение», — пишут в Meta.
Специалисты команды Fundamental AI Research (FAIR) из Meta решают проблему распознавания ИИ-дипфейков. Совместно с компанией Inria они выпустили Stable Signature. Это технология создания водяных знаков, невидимых глазу, однако представленных в коде изображения. Эти строки и будут предоставлять информацию о том, что изображение было создано при помощи генеративной ИИ-модели с открытым исходным кодом.
Поговорим о механике работы технологии.
Простыми словами, эти невидимые водяные знаки изначально зашиты в цифровом контенте. Вторым аспектом выступает Stable Signature, который не позволяет удалить маркировку из кода. Поэтому с помощью данного метода и можно отследить, какой инструмент использовали для создания изображения.
Чтобы объяснить механизм конкретнее, представители Meta прибегают к примерам двух людей, Алисы и Боба.
Алиса занимается обучением генеративной модели ИИ. Но прежде чем приступить к ее дистрибуции, Алиса дорабатывает отдельную ее деталь, именуемую декодером. Этот декодер зашивает водяной знак, который будет появляться на контенте Боба. Эта метка в дальнейшем позволит определить версию модели, компанию-разработчика, конечного пользователя и т. д.
Затем Боб получит модель в личное пользование и начнет генерацию контента. На созданных им изображениях будет присутствовать конкретный водяной знак. Эти метки смогут анализировать как Алиса, так и третьи лица, что поможет заинтересованным сторонам понять, действительно ли непосредственно Боб и сгенерировал изображение.
Если Боб решит поделиться изображением с другими, и эти пользователи захотят изменить его определенным образом, то метка Stable Signature никуда не исчезнет.
«Как бы пользователь ни модифицировал изображение, исходный водяной знак с практически стопроцентной вероятностью сохранится в структуре данных. Это поможет определить, какая модель была использована для генерации контента», — объясняют представители компании.
Кроме того, в Meta заявили, что новый метод маркировки позволяет отслеживать также изображения, для генерации которых были использованы разные версии одной и той же ИИ-модели. Пассивные методы идентификации не предлагают подобного функционала. В компании сообщают, что в скором времени технология будет предоставлена специалистам в области исследований сферы ИИ. Основная цель — стимулировать развитие сотрудничества и совершенствовать существующие технологии.
«Представленное нами исследование сосредоточено на генеративных изображениях. В дальнейшем мы надеемся раскрыть новые возможности для интеграции нашей технологии Stable Signature в другие виды генеративного ИИ», — пишут в FAIR.
А прежде мы в GNcrypto разбирались, почему французские ИИ-компании не в восторге от регуляторных норм ЕС.