Глобального регулювання ШІ не буде

icon FOR
Фото - Глобального регулювання ШІ не буде
Виробити єдині принципи, якими керуватимуться компанії AI-сектору, просять і прихильники, і супротивники швидкого розвитку великих мовних моделей. Але сигнали глобальних інституцій та історичний досвід доводять, що до казус беллі будь-яких серйозних дій у цьому напрямку чекати не варто.
На початку червня сталася подія, яка цілком могла б підштовхнути відповідні світові регуляторні структури зайняти активнішу позицію. Як повідомив керівник відділу випробувань ВПС США, під час змодельованої битви безпілотник зі ШІ був запрограмований на знищення ракет земля-повітря. При цьому оператор дрона міг схвалити такий наказ чи скасувати його. В певний момент безпілотник зробив висновок, що оператор перешкоджає виконанню його головної місії та атакував людину. Щоправда, за кілька годин після публікації твіт із цією сенсаційною інформацією було видалено.

Приблизно у той самий час у Швеції відбулася зустріч керівників технічних служб Трансатлантичної ради з торгівлі та технологій (Transatlantic Trade and Technology Council). Подібні засідання проводяться раз на 2 роки. На ринку AI очікували, що учасники Ради почують заклики провідних розробників та приділять належну увагу проблемі функціонування штучного інтелекту. Однак на зустрічі штучний інтелект був згаданий виключно у ракурсі просування загальної термінологічної бази та таксономії (тобто класифікації та систематизації теми AI як такої).
Сем Альтман складає присягу в Конгресі Джерело: Getty Images

Сем Альтман складає присягу в Конгресі Джерело: Getty Images

Водночас у середині травня, безпосередньо перед Трансатлантичною радою, СЕО OpenAI Сем Альтман дав свідчення у Конгресі США. Під час багатогодинної сесії питань та відповідей він неодноразово просив законодавців докласти спільних зусиль для визначення правил та обмежень, яких могли б дотримуватись розробники AI.
Найбільше я боюся, що ми завдамо значної шкоди світові
, — зазначив Сем.
Зі схожими ідеями на підтримку регулювання галузі виступив і генеральний директор Google Сундар Пічаї (Sundar Pichai). Він також наголосив на необхідності діалогу між розробниками, Конгресом та адміністрацією Байдена для визначення найбільш ефективного підходу до регулювання ШІ. Пічаї натякнув на складність пошуку балансу між позицією галузевих фахівців та амбіціями політиків. «Політика — це сфера, у якій різні люди мають різні переконання. Тут немає правильної відповіді. Тому в галузях, подібних до нашої, ми або однаково відображаємо обидві сторони, або не відповідаємо їм взагалі… Ми досі перебуваємо на початку шляху», — поскаржився Пічаї.
Пічаї виступає за зрозумілі правила гри на ринку AI Джерело: Youtube

Пічаї виступає за зрозумілі правила гри на ринку AI Джерело: Youtube

Потім дещо несподівано СЕО Google провів аналогію між поширенням великих мовних моделей та небезпеками, які приховують ядерні технології.
Але згодом... технологія стане доступною для більшості країн. І тому, я гадаю, згодом нам потрібно буде розробити глобальні межі, такі як обмеження для ядерного нерозповсюдження, щоб у цьому світі були договори про ШІ
, — підсумував він.
І тут, якщо вже мова про ядерну загрозу, не зайвим буде згадати, що Міжнародна агенція з атомної енергії (МАГАТЕ) розпочала свою роботу через 12 років після того, як атомні бомби перетворили на попіл Хіросіму та Нагасакі. І сьогодні, коли російські війська мінують та обстрілюють Запорізьку АЕС, МАГАТЕ другий рік поспіль шукає і не може знайти адекватної відповіді на новий виклик ядерної безпеки. Так само, як і беззуба Організація Об’єднаних Націй, яка, до речі, також була створена за підсумками кровопролитної Другої світової.

На жаль, у новітній історії не зафіксовано превентивного глобального регулювання потенційно небезпечних для людства ситуацій. Всі рішення приймалися через роки після катастроф. Крім того, у кількох випадках регуляторні зусилля світової спільноти так і не змогли забезпечити повну безпеку.

Тому нам усім дуже пощастить, якщо загальносвітові правила функціонування AI будуть написані до, а не після потенційного повстання машин.

Крім того, складається враження, що насправді провідні розробники мовних моделей не надто готові до діалогу з регуляторами. Так, наприкінці весни Сем Альтман пригрозив піти з ринків ЄС через надмірне регулювання, щоправда, незабаром забрав свої слова назад. У свою чергу Google відмовляється виводити чат-бота Bard на ринки Канади та Європи. Причини такого рішення остаточно не зрозумілі. Деякі експерти вважають, що справа в розслідуваннях конфіденційності ChatGPT, які розпочалися в Італії, Німеччині, Франції, Іспанії та Канаді.