ШІ стане розумнішим за людей, але ми не втратимо контроль над ним

Фото - ШІ стане розумнішим за людей, але ми не втратимо контроль над ним
ШІ дійсно стане розумнішим за людину? Це цілком можливо, але експерт упевнений, що керувати технологією ми все одно зможемо.
Ян ЛеКун, головний дослідник штучного інтелекту в Meta, поділився ґрунтовним аналізом загроз ШІ та своїм поглядом на майбутнє індустрії.

У своєму інтерв'ю для Financial Times ЛеКун виступив проти поспішного і непродуманого регулювання ШІ-сектору. На його думку, такі дії тільки погіршать ситуацію із залізним розумом, а домінування великих технологічних корпорацій на ринку лише посилиться. Крім цього, він переконаний, що регулювання здатне нашкодити здоровій конкуренції.

«Регулювання науково-дослідних і дослідно-конструкторських проєктів у галузі ШІ є неймовірно контрпродуктивним», — поділився ЛеКун, один із провідних світових дослідників ШІ в галузі нейронаук. Коментуючи ініціативу британського уряду щодо посилення безпеки штучного інтелекту — конференцію в Блетчлі Парку, що відбудеться в листопаді, Ян зазначив: «Вони (урядовці) мають намір взяти ШІ під контроль під виглядом гарантій безпеки для технології».

Ба більше, дослідник переконаний, що великі компанії страждають від манії величі. Корпорації стверджують, що розробку та розвиток ШІ-сфери можна довіряти лише їм. Такий підхід учений вважає неймовірно зарозумілим, а сам дотримується прямо протилежної точки зору. За його словами, моделі з відкритим вихідним кодом стимулюють конкуренцію і допомагають більшій кількості охочих будувати і використовувати системи штучного інтелекту.

Термінатора не буде?

Стурбованість щодо виникнення нових ризиків дезінформації та заклики до стримування темпів розвитку ШІ ЛеКун теж вважає необґрунтованими. Те ж саме говорили і про Всесвітню павутину, коли інтернет тільки починав поширюватися серед населення. У підсумку, технологія наразі процвітає завдяки своїй децентралізованій природі.

 «І зі штучним інтелектом все відбуватиметься точнісінько так само», — вважає Ян. Однак двоє його колег, з якими він 2018 року отримав премію Тюрінга з інформатики — Джеффрі Хінтон і Йошуа Бенджіо — не поділяють його переконань.

ЛеКуна, на відміну від побратимів-науковців, не турбують потенційні ризики ШІ. Навіть загрози екзистенціального характеру, про які говорив, зокрема Ілон Маск, не знаходять відгуку в дослідника. Ян також не погоджується з можливим сценарієм а ля «Термінатор», у рамках якого більш розумне створіння захоче підкорити собі інших. І хоча він вважає, що ШІ буде вдосконалюватися в багатьох сферах людської діяльності, все ж фахівець переконаний, що замість створення кризи у відповідних галузях технологія слугуватиме стимулом для другої епохи Відродження в процесі навчання.

 «Інтелект не має нічого спільного із жагою до влади. Навіть для людей все інакше, — зазначив він. — Якби інтелектуали прагнули панувати над іншими, тоді Альберт Ейнштейн та інші науковці мали б бути і багатими, і впливовими, а вони не мали ні влади, ні статків».

Водночас він стверджує, що окремі дослідники погано розуміються на питанні світобудови і не пристосовані до планування.

«Людство не має в своєму арсеналі повністю автономних, самокерованих автомобілів, які могли б навчитися водінню приблизно за 20 годин практики, що під силу 17-річному підлітку», — розповідає експерт.

На думку Яна, перш ніж системи ШІ наблизяться до рівня інтелекту людини, знадобиться ще кілька принципових проривів. Але навіть якщо залізний розум набуде людського інтелекту, ним можна буде керувати. Для цього буде використано "моральний компас", зашитий у підсистеми.

«Суперечки про екзистенціальні ризики вкрай несвоєчасні, принаймні допоки ми не розробимо систему, здатну конкурувати хоча б із кішкою в плані здатності до навчання, а такою технологією ми ще не володіємо», — зазначив ЛеКун. До того ж дослідник упевнений, що в майбутньому наша взаємодія з цифровим світом відбуватиметься за посередництва систем штучного інтелекту.

Тому пошуковики відійдуть у минуле.

Президент підрозділу Google у регіоні EMEA Метт Бріттін поділяє таку ж думку. Він вважає, що технології ШІ є винятково важливими, тому не можна допускати стагнації та відмовлятися від їхнього застосування. «ШІ здатний здійснити колосальний прорив у всіх галузях економіки», — одного разу поділився він з BBC.

Глобальний саміт з безпеки штучного інтелекту відбудеться у Великій Британії 27–28 листопада.

А раніше ми в GNcrypto розповідали про особистість Чарлі Мангера, інвестиційного генія, який не визнає ШІ.