OpenAI: таємниці та скандали

Фото - OpenAI: таємниці та скандали
Історія компанії OpenAI, розробника знаменитого генеративного ШІ-бота під назвою ChatGPT, сповнена драматичних подій. Бунти співробітників, загадкові кадрові рішення та безпекові острахи — всі ці курйози стали невіддільною частиною життя техногіганта.
Вихід ChatGPT у листопаді 2022 року приніс OpenAI значну популярність. Застосунок викликав справжній фурор і привернув увагу одного мільйона людей за 5 днів. За оцінками UBS Research, зростання користувацької бази ChatGPT стало найдинамічнішим серед усіх коли-небудь створених застосунків. У 2024 році кількість користувачів ChatGPT, що демонструють щомісячну активність, перевищила 100 мільйонів.

Розробники не занедбали своє творіння та продовжують удосконалювати його. Остання версія чат-бота, GPT-4o, була запущена в травні поточного року. Інструментарій поповнився можливістю здійснення бесід з нейромережею, а функції для роботи із зображеннями та відео було розширено.

Наразі в OpenAI зосередилися на створенні системи загального штучного інтелекту (AGI), який, у теорії, зміг би перевершити інтелект людини. У міру розвитку компанії зростає й кількість скандалів та суперечностей навколо її діяльності. До вашої уваги — найгучніші курйози:

  
  • Скарлетт Йоханссон та звинувачення в незаконному використанні її голосу;
  • звільнення та поновлення на посаді СЕО Сема Альтмана — все за тиждень;
  • відплив засновників і старших співробітників;
  • конфлікт між Ілоном Маском та OpenAI.

 Скарлетт Йоханссон та її протест щодо незаконного використання голосу  

У травні OpenAI презентувала нову модель GPT з номером 4o, і тут почалося. Одна з її характерних особливостей — вміння розпізнавати та обробляти мову. У демонстраційному ролику можна розчути, як бот змінює тон після прохання бути саркастичним. Голос, на який бот реагує, — ще один продукт від OpenAI. Він має назву Sky. 


У коментарях до демонстрації користувачі зауважили, що голос Sky скидається на голос голлівудської акторки Скарлетт Йоханссон із фільму «Вона», у якому дівчина зіграла роль Саманти, віртуального ШІ-асистента. Незабаром і сама акторка висловилася щодо Sky і звинуватила OpenAI в незаконному використанні її голосу. Йоханссон написала заяву, в якій зазначила, що у вересні 2023 року генеральний директор OpenAI Сем Альтман запропонував їй стати голосом для Sky. Актриса відхилила пропозицію. За два дні до запуску ChatGPT-4o агент Йоханссон отримав ще один лист від Альтмана з проханням переглянути пропозицію. Якщо вірити його заяві, вони не встигли нічого обговорити, а систему вже було запущено.

Я була вражена, розсерджена та не вірила, що пан Альтман стане використовувати голос, страшенно схожий на мій, і мої близькі друзі та новинні агентства не зможуть розпізнати відмінність
Згодом Йоханссон поділилася своїми враженнями від почутого на презентації:
Скарлетт Йоханссон найняла юрисконсульта, який надіслав OpenAI листи із запитом про розкриття процедури створення Sky. Акторка заявила, що схожість між голосами зробили навмисно, а твіт Сема Альтмана з єдиним словом «вона» в день виходу бота свідчить про наявність певного наміру.   
  
  
Голос Sky не належить Скарлетт Йоханссон, і ніхто не збирався робити його схожим на неї. Ми запросили актора для озвучення Sky до того, як спромоглися сконтактувати з пані Йоханссон. З поваги до пані Йоханссон ми припинили використання голосу Sky в наших продуктах. Нам шкода, що не змогли налагодити більш ефективну комунікацію з пані Йоханссон
Публікація супроводжувалася й зверненням Альтмана:

Так чи інакше, якщо взяти до уваги твіт Альтмана і коментарі Скарлетт Йоханссон, то вибір озвучення не є звичайним збігом. Чи буде акторка подавати до суду — поки невідомо.

Сема Альтмана звільнили та знову найняли протягом одного тижня. Причини й досі не визначені   

У листопаді 2023 року рада директорів OpenAI в особі Іллі Суцкевера, Гелен Тонер, Таші МакКолі та Адама Д'Анджело ухвалила рішення про звільнення генерального директора Сема Альтмана. У їхній офіційній заяві зазначено, що Альтман позбувся посади «за недостатню щирість у спілкуванні з радою директорів». Чи означає це, що Альтман приховував технологічні розробки або будував інші партнерські відносини на стороні, не конкретизували. Після цих новин пішов з посади й президент OpenAI Грег Брокман.

Звільнення Альтмана спровокувало в компанії справжній хаос. Понад 700 співробітників пригрозили раді директорів звільненням, якщо Альтмана не буде поновлено на посаді. Ба більше, співробітники побажали, щоб рада директорів склала повноваження. Пізніше Ілля Суцкевер напише в пості, що щиро шкодує про свою участь у діяльності ради. 

У цій ситуації вагому роль відіграла корпорація Microsoft, найбільший інвестор OpenAI. На той момент у компанії оголосили, що Альтман і Грег Брокман обіймуть керівні посади в новому дослідницькому ШІ-підрозділі.

Але кульмінацією цієї загадкової історії став не менш цікавий перебіг подій — до компанії повернулися Сем Альтман і Грег Брокман, коли Гелен Тонер і Таша МакКолі втратили свої посади в раді директорів.
  


Тож у чому річ? 

Звісно, реакція такої великої кількості співробітників OpenAI, що встали на захист свого генерального директора, вельми промовиста, але медаль має й зворотний бік. Нещодавно Гелен Тонер поділилася причинами того, що сталося, на TED AI Show, де й розповіла, за що звільнили Альтмана. Якщо вірити її словам, люди боялися, що без Сема на OpenAI чекає крах, і не хотіли втрачати обіцяні пакети акцій у багатомільярдній компанії. Гелен також зазначила, що генеральний директор керував компанією не інакше як за допомогою психологічного насильства. За словами Тонер, рада директорів не могла повною мірою довіряти Альтману, оскільки бували випадки, коли він приховував важливу інформацію. Зокрема, він не повідомив раду директорів про реліз ChatGPT заздалегідь. Іншою проблемою, яку згадала Гелен, виявилися брехливі заяви про дотримання техніки безпеки. За її словами, Альтман намагався домогтися звільнення Тонер після того, як вона написала наукову роботу, в якій негативно відгукнулася про корпоративний підхід OpenAI. Насамкінець Гелен зазначила, що 2019 року Альтмана звільнили з Y Combinator за нечесність. 

 Ілон Маск проти OpenAI. Нескінченна суперечка  

Хоча OpenAI здобула широку популярність останніми роками, компанія має значно багатшу історію. У 2015 її заснували Ілон Маск, Сем Альтман, Грег Брокман, Ілля Суцкевер, Андрій Карпати та низка інших фахівців як некомерційну організацію.

Ілон Маск — за сумісництвом найбільший інвестор OpenAI — пішов у 2018 році через конфлікт інтересів. З роками цей конфлікт дещо еволюціонував. Ілон регулярно висловлюється про OpenAI та критикує її стратегію. Переважно це невдоволення пов'язане з переходом компанії від моделі з відкритим вихідним кодом до закритого у 2019 році. У різних постах Маск зазначає, що ChatGPT дотримується не інтересів людства, а максимізації власного прибутку. Дійшло до того, що в березні 2024 року він подав до суду на OpenAI за зміну первісної бізнес-моделі й зажадав компенсації.

У відповідь OpenAI оприлюднила листи, з яких стало відомо, що у 2018 році Маск пропонував придбати цю компанію за кошти Tesla. В OpenAI стверджують, що у 2017 році майбутній перехід до моделі комерційної організації було погоджено з підприємцем. Однак Маск залишив компанію, коли його пропозицію про приєднання OpenAI до Tesla відкинули. Залишаючи проєкт, він сказав, що необхідно створити конкурента Google/DeepMind у сфері штучного інтелекту і що він зробить це власноруч. У 2023 році Маск заснував xAI, компанію з філософією відкритого коду, яка опікується роботою над Grok, ботом-конкурентом ChatGPT. 

  
Нам сумно, що так сталося з людиною, якою ми глибоко захоплювалися, з тим, хто надихав нас рухатися вгору, а потім сказав, що в нас нічого не вийде, заснував конкурента, а пізніше подав на нас до суду, коли ми почали досягати значного прогресу в реалізації місії OpenAI без нього
Ось що говорять в OpenAI стосовно цього:
Рішення про те, чи порушила OpenAI умови контракту, ухвалить суд. Тим часом Маск не збирається відмовлятися від судового розгляду.


  

Ключові співробітники продовжують звільнятися з лав OpenAI   

З кроками й рішеннями OpenAI не був згоден не лише один Маск. Компанію залишили багато її засновників, учених і дослідників. Здебільшого вони йдуть тихо, причини звільнення з «найгарячішого» ШІ-стартапу залишаються невідомими.

Останніми місяцями засновники компанії Андрій Карпати та Ілля Суцкевер, яких вважали одними з найяскравіших спеціалістів у галузі штучного інтелекту, оголосили про своє звільнення й перехід до роботи над особистими проєктами.

   
Тоді як Андрій Карпати та Суцкевер тільки почали роботу над своїми інноваціями, один перспективний стартап, заснований колишніми співробітниками OpenAI, вже набирає обертів. Йдеться про Anthropic, компанію, яку запустили семеро колишніх співробітників OpenAI, включно з генеральним директором Даріо Амодеї та його сестрою Даніелою Амодеї, котра обіймає посаду президента. Раніше Даріо був на посаді віцепрезидента з наукових досліджень в OpenAI, а Даніела — віцепрезиденткою з питань безпеки та політики. Разом вони заснували Anthropic  2021 року як лабораторію для досліджень у сфері ШІ-безпеки. Ними було створено й Сlaude — етичну нейромережу, яка є одним із головних конкурентів GPT.

Нещодавно до Anthropic долучився Ян Лейке, колишній головний науковий співробітник відділу безпеки в OpenAI.

  

   
Кількома днями раніше Ян Лейке у Twitter розповів про причини звільнення з OpenAI. Він згадав про суперечки з керівництвом компанії щодо основних її пріоритетів і методів управління системами штучного інтелекту. Лейке заявив, що, на його думку, OpenAI слід надати набагато більше обчислювальних потужностей для підготовки наступних поколінь моделей з фокусом на аспектах безпеки, моніторингу та соціального впливу. На завершення він додав:

  «Останніми роками культура безпеки та відповідні процедури відійшли на другий план, поступившись місцем яскравим продуктам. Нам уже давно слід серйозно замислитися над наслідками появи AGI. Ми повинні надати першочергову увагу підготовці до них, наскільки це можливо. Тільки в цьому разі ми зможемо гарантувати, що AGI принесе користь людству».

Моделі OpenAI наближаються до рівня інтелекту людини   

На початку 2024 року Сем Альтман повідомив, що в найближчому майбутньому може з'явитися так званий загальний штучний інтелект. Припускають, що наступне покоління систем ШІ перевершить людей у розумовому плані. Ці машини зможуть самостійно навчатися, розуміти людські емоції та адаптувати свій стиль спілкування, з-поміж інших функцій і вмінь. Що ж стосується побоювань щодо перспективи, де технорішення замінять людей на робочих місцях, то Сем Альтман під час Всесвітнього економічного форуму зазначив, що зміни будуть менш значними, ніж думають люди.

Нещодавно OpenAI сформувала новий комітет з питань безпеки та захисту ШІ з метою оцінки та розвитку систем штучного інтелекту в компанії. Цей крок має підвищити рівень безпеки ШІ-рішень, що зрештою може призвести до зростання суспільної довіри й зниження кількості скандалів. 

А що у підсумку? 

ChatGPT-5 вже майорить на горизонті, а вартість OpenAI перевищила $80 млрд. Компанія залишається одним із найяскравіших представників ШІ-сектору. Попри скандали, стартап не зменшує темпів розробки нових технологій. Щоб поліпшити можливості генерації контенту для своїх моделей, OpenAI уклала партнерство з кількома новинними компаніями та соцплатформами, серед яких Reddit і The Atlantic. Світу, звісно, дуже цікаво дізнатися, які гучні новинки приготувала ШІ-компанія, і, певна річ, спільнота уважно спостерігає за її майбутнім курсом на тлі скандальних ситуацій.   


Web3-райтер і крипто-HODLер за сумісництвом. Стежить за ринковими трендами та цікавиться новітніми технологіями.