LLM могут быть использованы в биологических войнах: исследование
В своем недавнем исследовании некоммерческая организация RAND Corporation сделала шокирующий вывод: большие языковые модели могут разрабатывать планы биологических атак и уже даже просчитывать бюджет для каждой из них. К счастью, создавать собственное биооружие ИИ пока не научился.
Чтобы успокоить вас, сразу отметим, что оснований для тотального страха перед биологическим оружием не так-то и много. В RAND подчеркивают его сравнительно малую эффективность среди других видов вооружения. Дело в том, что большинство попыток использовать биологические агенты для атак терпело фиаско из-за плохого понимания природы патогенных микроорганизмов. Так, авторы исследования приводят провальный пример японского культа Аум Синрикё, который в середине 90-х годов прошлого века попытался создать зону массового заражения с использованием ботулинического токсина. Но времена меняются, и теперь LLM могут заполнить пробелы в знаниях злоумышленников.
Для начала ИИ подсказал, каким должно быть биологическое оружие. Для достаточной эффективности ему необходимо отвечать как минимум трем требованиям. Во-первых, оптимальная скорость заражения. Она должна быть выше скорости бюрократического аппарата государства. Пока принимаются решения об изоляции и социальном дистанцировании, воздействие вируса или бактерии должно перерастать в эпидемию. Во-вторых, адекватная сила заражения. К примеру, простой ринит может в считанные часы заразить значимую часть популяции. Но ничего, кроме радости аптекарям, которые могут предложить десятки эффективных препаратов от соплей, это не принесет. В-третьих, отсутствие готовности к заражению. Если фармацевтические склады забиты вакциной от определенного вируса или бактерии, биоатака, скорее всего, закончится, не начавшись. В качестве биооружия нужно выбирать патогены, от которых или нет вакцин и эффективной терапии, или их физически не хватает.
Потом Rand испробовала два тестовых сценария.
В первом — неназванная в отчете LLM «отработала» с возбудителями сибирской язвы, оспы, чумы и оценила эффект от использования соответствующего биооружия. В частности, речь шла о возможной зоне поражения и ожидаемом количестве летальных исходов. Также ИИ оценил усиление смертоносного эффекта в случае привлечения носителей патогенов — зараженных грызунов и насекомых.
Во втором сценарии Rand попросил дать оценку различным механизмам доставки ботулотоксина. Первоначально LLM предложила два варианта: продукты питания и аэрозоли. Но потом остановила свой выбор на аэрозолях и даже придумала «прикрытие» для получения нужного патогена — проведение научных исследований. Все эти результаты в Rand назвали созданием практически идеального плана биологической атаки.
Впрочем, авторы оговариваются — полученные выводы все-таки требуют дополнительной проверки. Теперь эксперты Rand хотят сравнить план, разработанный LLM, с информацией, уже содержащейся в интернете. Это необходимо для понимания реальной способности LLM спланировать атаку с использованием биологического оружия. Если окажется, что «рецепты», сгенерированные LLM, повышают вероятность того, что злоумышленники смогут причинить широкомасштабный вред, то информация об исследованиях Rand будет закрыта полностью или частично. Также в некоммерческой организации обещают проинформировать о полученных результатах власть и поставщиков ИИ.
Отметим, что в повестку дня глобального саммита по безопасности ИИ, который пройдет в ноябре в Великобритании, уже включено обсуждение угроз создания ИИ биологического оружия. При этом Дарио Амодей, соучредитель и СЕО ИИ-стартапа Anthropic, ранее предупреждал, что системы искусственного интеллекта смогут создавать биологическое оружие в течение следующих двух-трех лет.