Виталик Бутерин: нам сложно преодолеть риски использования ИИ
Анализируем итоги онлайн-дискуссии, которая прошла в Черногории, по поводу будущего человечества в связи с развитием искусственного интеллекта. Внимание сообщества было приковано к диалогу Виталика Бутерина и основателя НИИ машинного интеллекта Нейта Соареша.
Два гениальных техно-философа впервые серьезно обсуждали потенциальную угрозу для человечества, которую представляет ИИ. Они настаивали на необходимости осторожного обращения с этой технологией и предупреждали, что наделение машин богоподобными качествами может сыграть с людьми злую шутку.
Как Бутерин и Соареш оценивают влияние ИИ на человечество?
Бутерин прямо утверждает, что мы все столкнулись с еще не осознанными экзистенциальными рисками и оценивает вероятность того, что ИИ вызовет гибель цивилизации в 0,5-1%. Это может показаться ничтожно малой величиной – риск ядерной войны сейчас гораздо выше. Но, с точки зрения Виталика, мы не можем игнорировать угрозы, которые легко избежать. А основная опасность заключается в том, что разработчики автоматизируют процесс развития Искусственного Интеллекта.
То есть сейчас мы зашли в опасную зону, где машина обучает машину тому, в чем суть благополучия человека.
Это замкнутый круг, из которого люди вряд ли смогут найти выход, потому что они окажутся под жестким контролем нечеловеческого разума, который может считать приоритетом будущее Вселенной, а не отдельно взятого человека. Представление ИИ о добре может войти в противоречие с нашими мечтами о благоденствии человечества. И что случится, если у нас не найдется аргументов, чтобы переубедить машину?
Один из самых признанных исследователей ИИ на планете, Соареш, прямо заявил, что быстрое развитие машинного разума во время гонки вооружений и войны – это совершенно неоправданный риск. Мы не можем гарантировать, что сверхразум в этой ситуации не решит, что истинным благом для человечества будет его исчезновение. Это связано с тем, что ученые до сих пор не могут понять алгоритм, по которому ИИ определяет целесообразность своих действий. Понимание человеческих предпочтений слишком далеко от логики вычислительной техники, поэтому важно сначала привести в соответствие представление о категориях добра/зла у машины и человека. А эту задачу сейчас никто не берется решать.
Между пониманием наших мотивов и тем, что нас волнует, существует огромная пропастьутверждает Соарес
То есть он уверен, что пока мы сами не разберемся, к чему на самом деле стремимся, опасно доверять ИИ принимать решения относительно нашего будущего.
Бутерин также поставил под сомнение идею о том, что люди могут обучить машину понимать, что такое добро. Хотя большие системы ИИ могут понять тонкости человеческих предпочтений, им может не хватать врожденного стремления действовать в соответствии с ними.
Он предостерег от предположения, что интеллект самодостаточных компьютерных систем автоматически гарантирует искреннюю заботу о благополучии человечества. Все может сложиться ровно наоборот.
Ведь ценности, которыми дорожат люди, не являются обязательными для всех. Да и сама человеческая мораль - всего лишь продукт наших предков, которые отдавали предпочтение репродуктивным функциям и выживаемости, а не абстрактным представлениям о всеобщем счастье. Поэтому совершенный ИИ должен соответствовать коллективному стремлению человечества к радости, счастью и процветанию. И пока мы не поймем окончательно, что есть для нас добро, опасно делегировать решение этого вопроса машине.
Впрочем, есть и хорошие новости.
Собеседники уверены, что современные системы ИИ, такие как ChatGPT, еще не достигли такого уровня возможностей. Поэтому на ближайшие пару лет мы можем выдохнуть и не пересматривать “Матрицу” и “Восстание машин”, чтобы научиться отбиваться от сумасшедших роботов.