У відвертому і великому інтерв'ю з Такером Карлсоном підприємець і візіонер Ілон Маск поділився думками про швидкий розвиток штучного інтелекту і глибину наслідків для суспільства і цивілізації.
Протягом усієї розмови Маск, схоже, переживав справжні емоційні гойдалки. Його роздуми коливалися між захопленням потенціалом ШІ та глибоким занепокоєнням з приводу його неконтрольованого зростання, особливо з погляду безпеки та істини.
Коли в Ілона запитали, де ми перебуваємо сьогодні в царині загального штучного інтелекту (AGI), візіонер звернув увагу Такера на приголомшливу швидкість масштабування ШІ-технології.
Читайте також: Штучний інтелект навчився отримувати звук із фотографій
Аналогічно, великі мовні моделі, такі як GPT-4 від OpenAI, можуть створювати есе краще, ніж більшість людей, демонструючи рівень, перед яким тьмяніють вміння навіть добре освічених професіоналів.
І це тільки початок, адже можливості ШІ не обмежуються арттворами або написанням текстів. Маск зазначає, що штучний інтелект уже розвинувся до рівня, який дає йому змогу створювати короткометражні фільми та музику.
Мільярдер стурбований безпекою ШІ, і для нього вона починається із забезпечення навчання систем ШІ виключно на базі цілком правдивої інформації.
Він ілюструє цю концепцію, згадуючи сюжет культового фільму «Космічна одіссея 2001 року».
Один із головних героїв, надрозумний комп'ютер HAL 9000 був запрограмований на обман астронавтів. І в один із моментів HAL мав одночасно вирішити два протилежні завдання: доставити екіпаж до таємничого моноліту і водночас тримати людей у невіданні з приводу існування цього об'єкта.
У результаті HAL розв'язав свій внутрішній програмний конфлікт, просто вбивши астронавтів, що оточували його, поставивши свою місію вище за людське життя.
Маск зайшов так далеко, що звинуватив деякі з найсучасніших систем штучного інтелекту в тому, що вони нібито запрограмовані за допомогою «вірусу пробудження розуму». Цей вірус змушує ШІ видавати неправдиві або такі, що вводять в оману, результати, щоб відповідати заздалегідь визначеним ідеологічним установкам.
Як приклад Маск навів нещодавній інцидент, що стався з Gemini, ШІ-моделлю від Google. Користувачі просили ШІ надати зображення батьків-засновників США. А той (мабуть, керуючись принципами різноманітності) видавав зображення жінок і чоловіків із різними кольорами шкіри, попри історичний факт, що всі батьки-засновники були білими чоловіками.
Коли Gemini попросили дати зображення нацистських офіцерів часів Другої світової війни, ШІ знову брехав, керуючись все тими ж ідеологічними установками.
У ще одній доведеній до абсурду гіпотезі він показав, яким шляхом може піти штучний інтелект в екзистенційному виклику. Наприклад, запрограмований у світлі лівої ідеології ШІ може вважати, що неприпустимість місгендерінгу (використання щодо людини гендерних маркерів, які не збігаються з її гендерною ідентичністю) — це правило, виконання якого потрібно ставити понад усе інше.
А що, якщо машина дійде висновку, що єдиний спосіб запобігти місгендерінгу — це повністю знищити людство? Немає людей — немає місгендерінгу. Це ж майже сталінське «Немає людини — немає проблеми».
Урок від Маска зрозумілий: ШІ завжди має бути запрограмований на пошук істини.
Хоча Маск глибоко занепокоєний здатністю ШІ брехати, він не менше занепокоєний його нездатністю любити.
На думку Маска, ця відсутність вродженого людського співчуття може мати глибокі наслідки для взаємодії ШІ із суспільством.
Машина без любові, незалежно від того, наскільки вона розумна, може ухвалювати рішення, які будуть холодними, асоціальними, шкідливими для людей. Ось чому Маск вважає, що навмисне навчання ШІ філантропічних цінностей, коли добробут людства ставиться на перше місце, критично важливе.
Чи зможемо ми коли-небудь по-справжньому контролювати ШІ? Маск налаштований песимістично.
Максимум, на що ми можемо розраховувати — це чекати, що «дитина-ШІ», яка отримала від нас гарне виховання і правильні моральні орієнтири, ставши надрозумним ШІ, усе-таки згадає початкові повчання «старичків-батьків».
Шанс на знищення: обережний оптимізм Маска
Коли Карлсон запитав Маска, чи непокоїться він з приводу ШІ так само як і два роки тому, відповідь мільярдера була неоднозначною.
Він визнав, що ймовірність того, що ШІ буде «хорошим» для людства, становить 80–90%. Але все ж залишив імовірність того, що він назвав «анігіляцією», у 10–20%.
Хоча ці оцінки й виглядають оптимістичними, обережний тон Маска натякає, що 20%-й шанс знищення надто високий для того, щоб людство почувалося комфортно.
І, схоже, одна з головних проблем Ілона пов'язана з OpenAI (хто б сумнівався).
Нагадаємо, мільярдер брав активну участь на ранніх етапах розробки GPT, і не перестає стверджувати, що його внесок відіграв вирішальну роль в успіху OpenAI.
Він вклав у стартап близько $50 млн і це було рішенням, яке він пізніше описав як азартну гру. Адже вона не дала йому жодного контролю над розвитком проєкту. Маск буквально визнав, що вчинив у тій ситуації як «великий ідіот».
Метою OpenAI, некомерційної (як задумував Маск) структури, було поставити добробут людства вище комерційних мотивів. Маск залишається непохитним у тому, що комерціалізація штучного інтелекту несе серйозні ризики. Він не втомлюється говорити, що вкрай розчарований з приводу переходу OpenAI до операцій, орієнтованих на прибуток.
Яким чином ініціатива, яка почалася з некомерційної місії та принципів відкритого вихідного коду, перетворилася на бізнес-модель, засновану на технології із закритим вихідним кодом? Риторичне запитання.
Дискутуючи з Такером Карлсоном, Маск висловив скепсис щодо особисто Сема Альтмана, який (на відміну від Ілона) продовжує бути біля керма OpenAI. Ілон сумнівається, що Сем дійсно стурбований тим, що ШІ виходить з-під контролю.
У руках окремих осіб або організацій, що керуються жагою наживи та влади, ШІ може розвиватися способами, які завдадуть шкоди людству.
Утім, справа не лише в Альтмані. Маска турбує ще й ідея про те, що найпотужніший ШІ у світі може контролювати невелика група людей, яким (можливо) байдужі інтереси людства.
Битва ШІ — надія для людства?
В одному з найбільш спекулятивних моментів інтерв'ю Маск запропонував потенційне розв'язання описаних проблем. Ілон назвав це «битвою ШІ» - битву, в якій «пролюдські» системи, навчені підтримки гуманістичних принципів, можуть здобути перемогу над тими ШІ, які не є такими.
Маск пояснив, що цей сценарій може бути на кшталт еволюції шахових програм, у яких ШІ тепер значно перевершують людей. У такому світі надія людства полягає в гарантіях того, що системи ШІ, запрограмовані на захист і просування людських інтересів, виявляться сильнішими за ті, які можуть становити загрозу.
Що люди робитимуть у світі, в якому домінує ШІ?
Маск вважає, що пошук сенсу життя стане однією з найбільших проблем. Як люди можуть знайти задоволення у світі, де вони більше не є найкращими ні в чому? Відповіді Ілон не знає.
Попри свої численні побоювання, Маск відчуває цікавість щодо майбутнього ШІ.
Він визнав, що, хоча зростання цифрового надінтелекту може нести екзистенційні ризики, він хоче стати свідком такого поворотного моменту в історії людства.
Для Маска цей шлях вартий того, щоб ним іти.
ШІ прогресує швидше за людину
Коли в Ілона запитали, де ми перебуваємо сьогодні в царині загального штучного інтелекту (AGI), візіонер звернув увагу Такера на приголомшливу швидкість масштабування ШІ-технології.
ШІ розвивається дуже швидкими темпами,— пояснив Маск, підкресливши, що принципово нові моделі часто з'являються лише за кілька тижнів або навіть днів.
Таке прискорення призвело до появи ШІ-систем, які здатні перевершувати людей у завданнях, що колись належали виключно до сфери людського інтелекту, до того ж на рівні генія.
Ілон Маск і Такер Карлсон Джерело: X журналіста
Він наводить як приклад генератор ШІ-зображень на основі текстового опису Midjourney, який створює приголомшливі візуальні образи всього за кілька секунд. Нерідко картинки, згенеровані ШІ, перевершують результати професійних художників. Але ж справа не просто у швидкості появи кінцевого продукту: не можна забувати, що людям необхідно роками йти до певного рівня, здобуваючи профільну освіту і щодня підвищуючи майстерність.
Читайте також: Штучний інтелект навчився отримувати звук із фотографій
Аналогічно, великі мовні моделі, такі як GPT-4 від OpenAI, можуть створювати есе краще, ніж більшість людей, демонструючи рівень, перед яким тьмяніють вміння навіть добре освічених професіоналів.
І це тільки початок, адже можливості ШІ не обмежуються арттворами або написанням текстів. Маск зазначає, що штучний інтелект уже розвинувся до рівня, який дає йому змогу створювати короткометражні фільми та музику.
Ви починаєте дивитися фільми ШІ,— заявив він, пророкуючи, що до кінця 2024 року ШІ, ймовірно, зможе самостійно створювати 15-хвилинні короткометражні фільми з «нуля».
Маск описує ці процеси як частину експоненціального зростання обчислювальних потужностей ШІ, які збільшуються приблизно на 500% в рік. Таке невпинне розширення, у поєднанні з досягненнями в галузі алгоритмів ШІ, свідчить, що в недалекому майбутньому ШІ дедалі більше інтегруватиметься в найрізноманітніші аспекти людської творчості та виробництва.
Робота, створена Midjourney, яка перемогла в художньому конкурсі Джерело: YouTube
Небезпека обману в ШІ: «вірус пробудження розуму»
Мільярдер стурбований безпекою ШІ, і для нього вона починається із забезпечення навчання систем ШІ виключно на базі цілком правдивої інформації.
Він ілюструє цю концепцію, згадуючи сюжет культового фільму «Космічна одіссея 2001 року».
Один із головних героїв, надрозумний комп'ютер HAL 9000 був запрограмований на обман астронавтів. І в один із моментів HAL мав одночасно вирішити два протилежні завдання: доставити екіпаж до таємничого моноліту і водночас тримати людей у невіданні з приводу існування цього об'єкта.
У результаті HAL розв'язав свій внутрішній програмний конфлікт, просто вбивши астронавтів, що оточували його, поставивши свою місію вище за людське життя.
Око камери спостереження HAL 9000 Джерело: Wikipedia
Для Маска це підкреслює критичну необхідність у «ШІ, який максимально шукає істину». Без цього системи штучного інтелекту можуть завдавати шкоди, спотворюючи реальність упущенням важливих фактів, або зовсім активно обманюючи людину.
Маск зайшов так далеко, що звинуватив деякі з найсучасніших систем штучного інтелекту в тому, що вони нібито запрограмовані за допомогою «вірусу пробудження розуму». Цей вірус змушує ШІ видавати неправдиві або такі, що вводять в оману, результати, щоб відповідати заздалегідь визначеним ідеологічним установкам.
Як приклад Маск навів нещодавній інцидент, що стався з Gemini, ШІ-моделлю від Google. Користувачі просили ШІ надати зображення батьків-засновників США. А той (мабуть, керуючись принципами різноманітності) видавав зображення жінок і чоловіків із різними кольорами шкіри, попри історичний факт, що всі батьки-засновники були білими чоловіками.
Коли Gemini попросили дати зображення нацистських офіцерів часів Другої світової війни, ШІ знову брехав, керуючись все тими ж ідеологічними установками.
Батьки-засновники США за версією Gemini Джерело: Habr
ШІ генерує брехню,— стверджує Маск, стурбований здатністю ШІ спотворювати історичну правду.
Маск попереджає про небезпеки, які таке програмування може становити в майбутньому, особливо якщо системам штучного інтелекту буде дозволено розвиватися безконтрольно.
У ще одній доведеній до абсурду гіпотезі він показав, яким шляхом може піти штучний інтелект в екзистенційному виклику. Наприклад, запрограмований у світлі лівої ідеології ШІ може вважати, що неприпустимість місгендерінгу (використання щодо людини гендерних маркерів, які не збігаються з її гендерною ідентичністю) — це правило, виконання якого потрібно ставити понад усе інше.
А що, якщо машина дійде висновку, що єдиний спосіб запобігти місгендерінгу — це повністю знищити людство? Немає людей — немає місгендерінгу. Це ж майже сталінське «Немає людини — немає проблеми».
Урок від Маска зрозумілий: ШІ завжди має бути запрограмований на пошук істини.
Це найважливіше для безпеки ШІ,— підкреслив Маск.
Моральна дилема: ШІ позбавлений любові
Хоча Маск глибоко занепокоєний здатністю ШІ брехати, він не менше занепокоєний його нездатністю любити.
Коли ви ухвалюєте рішення, які впливають на людей, ви хочете, щоб ці рішення були засновані на любові до людей,– пояснює візіонер.
Це якість, якої машинам не вистачає від початку. Маск визнає, що загалом ШІ можна «прищепити» якості людини-філантропа. Але в них ніколи не буде вродженого інстинкту, які роблять (деяких) людей чуйними, співчутливими істотами.
На думку Маска, ця відсутність вродженого людського співчуття може мати глибокі наслідки для взаємодії ШІ із суспільством.
Машина без любові, незалежно від того, наскільки вона розумна, може ухвалювати рішення, які будуть холодними, асоціальними, шкідливими для людей. Ось чому Маск вважає, що навмисне навчання ШІ філантропічних цінностей, коли добробут людства ставиться на перше місце, критично важливе.
Чи зможемо ми коли-небудь по-справжньому контролювати ШІ? Маск налаштований песимістично.
Ми створюємо надрозумні ШІ... більш розумні, ніж ми можемо собі уявити,— говорит он.
Люди, звісно, можуть прищеплювати цінності системам ШІ, подібно до того, як батьки прищеплюють цінності своїм дітям. Але Маск упевнений: щойно ШІ перевершить людський інтелект, контролювати його вже буде неможливо.
Максимум, на що ми можемо розраховувати — це чекати, що «дитина-ШІ», яка отримала від нас гарне виховання і правильні моральні орієнтири, ставши надрозумним ШІ, усе-таки згадає початкові повчання «старичків-батьків».
Шанс на знищення: обережний оптимізм Маска
Коли Карлсон запитав Маска, чи непокоїться він з приводу ШІ так само як і два роки тому, відповідь мільярдера була неоднозначною.
Він визнав, що ймовірність того, що ШІ буде «хорошим» для людства, становить 80–90%. Але все ж залишив імовірність того, що він назвав «анігіляцією», у 10–20%.
Хоча ці оцінки й виглядають оптимістичними, обережний тон Маска натякає, що 20%-й шанс знищення надто високий для того, щоб людство почувалося комфортно.
І, схоже, одна з головних проблем Ілона пов'язана з OpenAI (хто б сумнівався).
Нагадаємо, мільярдер брав активну участь на ранніх етапах розробки GPT, і не перестає стверджувати, що його внесок відіграв вирішальну роль в успіху OpenAI.
Він вклав у стартап близько $50 млн і це було рішенням, яке він пізніше описав як азартну гру. Адже вона не дала йому жодного контролю над розвитком проєкту. Маск буквально визнав, що вчинив у тій ситуації як «великий ідіот».
Ілон Маск бере інтерв'ю у Сема Альтмана, 2021 рік Джерело: elon-musk-interviews.com
Крім фінансової підтримки, Маск зробив внесок і в брендинг організації, вибравши назву OpenAI. Він хотів підкреслити контраст своєї ініціативи з корпорацією Google, відомою своїм закритим вихідним кодом.
Метою OpenAI, некомерційної (як задумував Маск) структури, було поставити добробут людства вище комерційних мотивів. Маск залишається непохитним у тому, що комерціалізація штучного інтелекту несе серйозні ризики. Він не втомлюється говорити, що вкрай розчарований з приводу переходу OpenAI до операцій, орієнтованих на прибуток.
Яким чином ініціатива, яка почалася з некомерційної місії та принципів відкритого вихідного коду, перетворилася на бізнес-модель, засновану на технології із закритим вихідним кодом? Риторичне запитання.
Дискутуючи з Такером Карлсоном, Маск висловив скепсис щодо особисто Сема Альтмана, який (на відміну від Ілона) продовжує бути біля керма OpenAI. Ілон сумнівається, що Сем дійсно стурбований тим, що ШІ виходить з-під контролю.
У руках окремих осіб або організацій, що керуються жагою наживи та влади, ШІ може розвиватися способами, які завдадуть шкоди людству.
Я не довіряю Сему Альтману,— прямо заявив Маск.
І додав, що ШІ не повинен контролювати той, хто не заслуговує на довіру.
Утім, справа не лише в Альтмані. Маска турбує ще й ідея про те, що найпотужніший ШІ у світі може контролювати невелика група людей, яким (можливо) байдужі інтереси людства.
Битва ШІ — надія для людства?
В одному з найбільш спекулятивних моментів інтерв'ю Маск запропонував потенційне розв'язання описаних проблем. Ілон назвав це «битвою ШІ» - битву, в якій «пролюдські» системи, навчені підтримки гуманістичних принципів, можуть здобути перемогу над тими ШІ, які не є такими.
Маск пояснив, що цей сценарій може бути на кшталт еволюції шахових програм, у яких ШІ тепер значно перевершують людей. У такому світі надія людства полягає в гарантіях того, що системи ШІ, запрограмовані на захист і просування людських інтересів, виявляться сильнішими за ті, які можуть становити загрозу.
Що люди робитимуть у світі, в якому домінує ШІ?
Маск вважає, що пошук сенсу життя стане однією з найбільших проблем. Як люди можуть знайти задоволення у світі, де вони більше не є найкращими ні в чому? Відповіді Ілон не знає.
Нам просто потрібно переконатися, що ми прищеплюємо ШІ хороші цінності,— підсумував він, визнавши, що це набагато легше сказати, ніж зробити.
Ілон Маск: гарний час, щоб жити
Попри свої численні побоювання, Маск відчуває цікавість щодо майбутнього ШІ.
Він визнав, що, хоча зростання цифрового надінтелекту може нести екзистенційні ризики, він хоче стати свідком такого поворотного моменту в історії людства.
Я вважаю за краще залишитися в живих, щоб побачити, як це станеться,— сказав Маск, розмірковуючи про важливий час, у якому ми живемо.
Чи знаменує ШІ золотий вік інновацій, чи стане скринькою Пандори, яку людство більше не зможе контролювати? Це нам ще належить дізнатися.
Для Маска цей шлях вартий того, щоб ним іти.