Глобального регулирования ИИ не будет
Выработать единые принципы, которыми будут руководствоваться компании AI-сектора, просят и сторонники, и противники быстрого развития больших языковых моделей. Но сигналы глобальных институций и исторический опыт говорят, что до наступления казус белли каких-либо серьезных действий в этом направлении ждать бессмысленно.
В начале июня случилось событие, которое вполне могло бы подтолкнуть соответствующие мировые регуляторные структуры занять более проактивную позицию. Как сообщил руководитель отдела испытаний ВВС США, в ходе смоделированного сражения беспилотник с ИИ был запрограммирован на уничтожение ракет земля-воздух. При этом оператор дрона мог одобрить такой приказ или отменить его. В какой-то момент беспилотник сделал вывод, что оператор препятствует выполнению его главной миссии и атаковал человека. Правда, через несколько часов после публикации твит с этой сенсационной информацией был удален.
Примерно в те же дни в Швеции прошла встреча руководителей технических служб Трансатлантического совета по торговле и технологиям (Transatlantic Trade and Technology Council). Подобные заседания проводятся раз в 2 года. На рынке AI ожидали, что участники Совета услышат призывы ведущих разработчиков и уделят должное внимание проблеме функционирования искусственного интеллекта. Однако на встрече искусственный интеллект был упомянут исключительно в ракурсе продвижения общей терминологической базы и таксономии (то есть классификации и систематизации темы AI как таковой).
Сэм Альтман приносит присягу в Конгрессе Источник: Getty Images
Вместе с тем в середине мая, непосредственно перед Трансатлантическим советом, СЕО OpenAI Сэм Альтман дал показания в Конгрессе США. Во время многочасовой сессии вопросов и ответов он неоднократно просил законодателей приложить совместные усилия для определения правил и ограничений, которым могли бы следовать разработчики AI.
Больше всего я боюсь, что мы нанесем значительный вред миру, — сказал Сэм.
Со схожими идеями в поддержку регулирования отрасли выступил и генеральный директор Google Сундар Пичаи (Sundar Pichai). Он также подчеркнул необходимость диалога между разработчиками, Конгрессом и администрацией Байдена для определения наиболее эффективного подхода к регулированию ИИ. Пичаи намекнул на сложности нахождения баланса между позицией отраслевых специалистов и амбициями политиков. «Политика — это сфера, в которой разные люди имеют разные убеждения. Здесь нет правильного ответа. Поэтому в областях, подобных нашей, мы либо одинаково отражаем обе стороны, либо не отвечаем им вообще….Мы все еще находимся в начале пути», — пожаловался Пичаи.
Пичаи выступает за понятные правила игры на рынке AI Источник: Youtube
Затем несколько неожиданно СЕО Google провел аналогию между распространением больших языковых моделей и опасностями, которые таят в себе ядерные технологии.
Но со временем... технология станет доступна большинству стран. И поэтому, я думаю, со временем нам нужно будет разработать глобальные рамки, такие как для ядерного нераспространения, чтобы в этом мире были договоры об ИИ, — заключил он.
И тут, если уж речь пошла о ядерной угрозе, не лишним будет вспомнить, что Международное агентство по атомной энергии (МАГАТЭ) начало свою работу через 12 лет после того, как атомные бомбы превратили в пепел Хиросиму и Нагасаки. И сегодня, когда российские войска минируют и обстреливают Запорожскую АЭС, МАГАТЭ второй год ищет и не может найти адекватный ответ на новый вызов ядерной безопасности. Также как и беззубая Организация Объединенных Наций, которая, кстати, также была создана по итогам кровопролитной Второй мировой.
К сожалению, в новейшей истории не зафиксировано превентивного глобального урегулирования потенциально опасных для человечества ситуаций. Все решения принимались через годы после случившихся катастроф. Кроме того, в ряде случаев регуляторные усилия мирового сообщества так и не смогли обеспечить полную безопасность.
Таким образом нам всем чрезвычайно повезет, если общемировые правила функционирования AI будут написаны до, а не после потенциального восстания машин.
Кроме того, складывается впечатление, что на самом деле ведущие разработчики языковых моделей не слишком готовы к диалогу с регуляторами. Так, в конце весны Сэм Альтман пригрозил уйти с рынков ЕС из-за чрезмерного регулирования, правда вскоре взял свои слова обратно. В свою очередь Google отказывается выводить чат-бота Bard на рынки Канады и Европы. Причины такого решения до конца не ясны. Некоторые эксперты полагают, что дело в расследованиях конфиденциальности ChatGPT, которые начались в Италии, Германии, Франции, Испании и Канаде.