AI знищить нашу цивілізацію? П’ятдесят на п’ятдесят
Штучний інтелект здатний знищити людство. Ймовірність такого результату Пітер Березін, головний глобальний стратег BCA Research, оцінює приблизно в 50%.
AI використовується без дотримання належних протоколів безпеки
BCA Research — компанія з 70-річною історією. За цей час аналітики BCA зробили низку несподіваних прогнозів, які влучили, як то кажуть, у яблучко. Наприклад, у 2011 році, у розпал кризи EUR, компанія переконала інвесторів, що жодна європейська країна не залишить єврозону. І все ж клієнти змогли скористатися значними преміями за ризик під час купівлі активів у ЄС і не помилилися. Або 2015 рік, коли, попри загальний скепсис, у BCA вказали на Дональда Трампа як на майбутнього лідера президентських перегонів.
Пітер Березін та його песимістичний прогноз. Джерело: CNBC
Одним словом, прогнозувати в BCA Research вміють, та щодо AI в компанії налаштовані досить насторожено. У своєму недавньому інтерв'ю CNBC Пітер Березін одразу закликає відкинути грайливий тон. Він підкреслює, що вже в середині поточного століття (тобто через 25 років) можна очікувати серйозних наслідків використання AI.
Стратег говорить про необхідність мислити експоненційно, а не лінійно. Він нагадує про нещодавню ситуацію з поширенням пандемії COVID-19, експоненційне зростання якої недооцінили.
Так і з AI: люди можуть не помічати швидкого прогресу доти, доки машина не почне виконувати завдання, які завжди вважалися прерогативою людини. Березін наголошує на колосальному потенціалі нестримного розширення можливостей штучного інтелекту. Він згадує попередні цивілізаційні стрибки — аграрну чи промислову революцію. Усі вони демонстрували експоненційне зростання.
Особливо дослідник занепокоєний недбалістю, з якою деякі зацікавлені сторони взаємодіють з AI. Зокрема, Березін ставить під сумнів відповідальні дії таких гігантів, як Microsoft, Google та OpenAI. Він констатує, що ці компанії найперше відповідають перед своїми акціонерами, а не перед людською цивілізацією.
AI знищує людство, тому що код пише код, — стверджує Березін.
Стратег пояснює, що протоколи безпеки, рекомендовані експертами з AI, ігноруються. Це не тільки заборона на написання власного коду, а й заборона доступу AI до інтернету.
Ця байдужість підвищує ризики того, що такі моделі, як-от ChatGPT, які продовжують розвиватися експоненційно, можуть вийти з-під контролю. Люди звикли бути домінантним видом на планеті, проте ситуація може кардинально змінитися.
Також у BCA Research натякають на можливі непередбачувані наслідки у разі, коли розвинутим системам AI ставлять глобальні цілі, а шляхи їх досягнення не обмежуються. Це ж не обов'язково буде сценарій фільму «Термінатор». Березін наводить приклад розвинутого AI, якому пропонують впровадити рішення, що пом'якшує проблему глобального потепління. Якщо не дати жодних уточнень, система може згадати, що температуру на планеті успішно знизить ядерна війна (з усіма наслідками, що випливають з цього висновку). Експерт знову й знову наголошує, що складні системи — непередбачувані.
АІ збирається знищити планету?
Ми в GNcrypto поцікавилися у ChatGPT, чи вважає він докази Пітера Березіна переконливими.
Треба сказати, що наш персонаж не заперечував очевидного. Аргументи доповідача про необхідність мислити експоненційно, а не лінійно під час розгляду зростання та можливостей AI він назвав вагомими. А побоювання щодо ігнорування протоколів безпеки та можливості того, що штучний інтелект перевершить людський контроль, — важливими міркуваннями.
А втім, резюмував ChatGPT, думка залежить від того, хто запитує. Хтось бачить ризики експоненційного зростання AI, а для когось їх переваги важливіші. Мовляв, дискусія складна і неперервна, що вимагає оцінювання всіх поглядів, сценаріїв та розробки структур управління.
Загалом, як кажуть у таких ситуаціях, підсудний своєї провини не визнав, але й не заперечував.
ChatGPT вважає аргументи Березіна не позбавленими сенсу. Джерело: діалог із ChatGPT