SynthID: водяной знак для ИИ-изображений от Google

icon FOR
Фото - SynthID: водяной знак для ИИ-изображений от Google
SynthID обещает решить растущую проблему дезинформации и фейков, которые генерирует ИИ. Бета-фаза тестирования этого инструмента, разработанного Google DeepMind и Google Research, началась в конце августа 2023 года.

Что такое SynthID?

SynthID имеет две функции: нанесение водяных знаков на изображения, созданные искусственным интеллектом и идентификация таких изображений. Пока он доступен ограниченной группе клиентов Vertex AI, использующих Imagen (усовершенствованную модель преобразования текста в картинки). Напомним, Vertex AI – это корпоративная платформа Google для внедрения искусственного интеллекта на предприятиях.

Эти пользователи смогут вставлять цифровой водяной знак непосредственно при создании изображений с помощью ИИ. Отдельно подчеркнем, что эта маркировка пока является добровольной. Маркер незаметен, так как наносится на уровне пикселей. Он сохраняется после применения фильтров, изменения цветов и сохранения изображений с использованием методов сжатия с потерями (JPEG).
Слева картинка с водяным знаком, справа – без него. Разница не видна Источник: Google DeepMind

Слева картинка с водяным знаком, справа – без него. Разница не видна Источник: Google DeepMind

Во время процесса идентификации ИИ-изображений, SynthID выдает три варианта результатов:
  • однозначно отрицательный (картинку создал человек);
  • положительный (картинка сгенерирована Imagen); 
  • неопределенный (картинка, вероятно, сгенерирована).
Водяной знак остается даже после значительных изменений в ИИ-изображении Источник: Google DeepMind

Водяной знак остается даже после значительных изменений в ИИ-изображении Источник: Google DeepMind

Как видим, пока что сфера применения SynthID достаточно локальна и называть этот инструмент панацеей от дезинформации, конечно, преждевременно. Тем не менее, он представляет собой многообещающий ранний шаг в продолжающейся борьбе за обеспечение достоверности цифрового контента. 

В дальнейшие планы Google входит интеграция SynthID в большее количество продуктов. Компания обещает, что вскоре и частные лица, и организации получат расширенные возможности для ответственного взаимодействия с контентом, созданным искусственным интеллектом. 

Это может иметь далеко идущие последствия в различных областях. Например, в журналистике, где точность и достоверность изображений имеют первостепенное значение, SynthID поможет проверить подлинность визуальных изображений, используемых в новостных статьях. Или в недобросовестной рекламе, где поддельные изображения могут ввести в заблуждение по поводу характеристик рекламируемого товара или услуги.

Водяные знаки для ИИ-контента: история и современные вызовы

Водяные знаки уже много лет являются инструментом защиты прав собственности на цифровой контент. Термин “цифровой водяной знак” был придуман в 1992 году. Идею цифровой маркировки удалось реализовать годом позднее.

Сама по себе концепция водяных знаков восходит к 13 веку. Тогда производители бумаги в Италии начали вставлять в свою бумагу уникальные знаки для идентификации своей работы. Позже эту технику переняли художники и издатели для защиты своих творений от несанкционированного копирования. В эпоху цифровых технологий нанесение водяных знаков эволюционировало. Теперь оно включает в себя различные методы, такие как видимые водяные знаки, невидимые водяные знаки и цифровые подписи.
Бумага с водяным знаком, Италия, XVI век Источник: Harvard Art Museums

Бумага с водяным знаком, Италия, XVI век Источник: Harvard Art Museums

Одна из основных проблем с водяными знаками на ИИ-контенте заключается в том, что алгоритмы искусственного интеллекта можно научить распознавать и удалять соответствующую маркировку. Это затрудняет защиту прав собственности и аутентичности и очень не нравится создателям контента, а также правообладателям, которые надеются на водяные знаки как на средство защиты.

А ведь в вопросе смешения правдивой визуальной, текстовой информации и ИИ-фейков доходит уже до смешного. Скажем, недавнее исследование выявило, что пользователи крайне слабо различают твиты, написанные людьми, от твитов, созданных ИИ. Более того, твиты, созданные искусственным интеллектом, часто воспринимаются читателями как более убедительные и достоверные. 

Здесь можно вспомнить майское падение рынков сразу после того, как в социальных сетях появилось фейковое фото горящего Пентагона. Некоторые части картинки выдавали подделку (например, сливающиеся друг с другом объекты), но то, что изображение было создано ИИ, так и не было подтверждено. 

Или рекламный ролик, транслировавшийся этим летом в рамках предвыборной кампании губернатора Флориды Рона ДеСантиса. Создатели видео предположительно использовали ИИ, чтобы имитировать голос Дональда Трампа и записать слова, которые экс-президент США никогда не говорил. На другой политической рекламе ДеСантиса Трамп красовался  в обнимку с Энтони Фаучи, экс-старшим медицинским советником Белого дома и главным лоббистом недавних ковидных ограничений. Это изображение, скорее всего, также было сгенерировано ИИ.
Рекламное видео ДеСантиса содержало 3 фейковых фото Источник: DeSantis War Room, Х

Рекламное видео ДеСантиса содержало 3 фейковых фото Источник: DeSantis War Room, Х

Точной уверенности в том, что именно искусственный интеллект создал эти и другие фейки, пока нет ни у кого. Понятно лишь то, что с развитием алгоритмов ИИ отличить реальность от вымысла становится все труднее.

Водяные знаки: позиция участников рынка

Рост количества ИИ-фейков заставил известные компании, среди которых Google, Microsoft, Meta, Amazon, OpenAI, Anthropic и Inflection, взять на себя обязательство помечать водяными знаками контент, созданный искусственным интеллектом. Этот добровольный шаг, с одной стороны, направлен на устранение недоверия общества к информации, распространяемой СМИ и соцсетями. С другой стороны, водяные знаки должны препятствовать распространению дезинформации, созданной с помощью ИИ. 

В рамках этого обязательства технологические гиганты начали разрабатывать водяные знаки, которые будут указывать, какая именно модель ИИ отвечает за создание контента (без раскрытия личности пользователя). Собственно, бета-тестирование SynthID – это вклад Google в реализацию договоренностей, достигнутых игроками ИИ-рынка. Дело за малым. Осталось всего лишь масштабировать это решение, дождаться аналогичных инструментов от других участников соглашения и обязать маркировать ИИ-контент на законодательном уровне.

Ранее GN уже писал о препятствиях, которые маркировка ИИ-контента неизбежно встретит на своем пути.