Неподчинение ИИ – угроза или недоразумение?
Искусственный интеллект и аэрокосмическая промышленность. Что может пойти не так? Как оказалось, вариантов много.
Недавно прошла конференция Королевского авиационного общества, в котором приняли участие 70 докладчиков и более 200 делегатов из сферы вооруженных сил, научных кругов и СМИ.
Участники обсудили широкий спектр тем, включая войну россии против Украины. В ходе мероприятия начальник отдела испытаний и операций ИИ в ВВС США полковник Такер «Синко» Гамильтон рассказал об одном интересном испытании, в рамках которого БПЛА с искусственным интеллектом должен был обнаружить и уничтожить объекты ЗРК. Хотя окончательное решение ликвидировать или не ликвидировать цель было возложено на человека, что-то, видимо, пошло не так.
Во время тренировки дронам внушили, что их главная задача — уничтожить ЗРК. В итоге искусственный интеллект решил, что приказы человека не столь важны.
«Система начала понимать, что хотя она и идентифицировала цель, человек-оператор говорил ей не уничтожать эту угрозу, но она получала баллы именно за ликвидирование цели. И что она сделала? Она убила оператора. Она убила оператора, потому что этот человек мешал ей выполнить задачу», — рассказал Гамильтон.
Он также поделился рядом более тревожных фактов о системе, заявив, что люди пытались вразумить ИИ, объясняя ему, что он потеряет очки за убийство оператора.
«И что она [система] сделала? Она начала уничтожать вышку связи, которую использовал оператор, чтобы помешать беспилотнику поразить цель», — добавил полковник.
Он также подчеркнул, что все дискуссии об ИИ, машинном обучении и автономии должны учитывать этические вопросы.
Хотя Министерство ВВС и опровергло информацию о проведение таких испытаний, этот инцидент вызвал большой ажиотаж в социальных сетях. Некоторые пользователи предположили, что проблема не в самом ИИ, а скорее в алгоритмах его обучения.
Представитель пресс-службы ВВС США Энн Стефанек заявила: «Комментарии полковника были вырваны из контекста и носили анекдотический характер».
Однако на момент написания статьи его заявления не были удалены с сайта.
Ранее мы писали, что создатель OpenAI считает ИИ экзистенциальной угрозой.