OpenAI: тайны и скандалы
История компании OpenAI, разработчика знаменитого генеративного ИИ-бота под названием ChatGPT, полна драматических происшествий. Бунты сотрудников, загадочные кадровые решения и опасения по части безопасности — все эти курьезы стали неотъемлемой составляющей жизни техногиганта.
Выход ChatGPT в ноябре 2022 года принес OpenAI широкую известность. Приложение произвело настоящий фурор, завоевав внимание одного миллиона людей за 5 дней. По оценкам UBS Research, рост пользовательской базы ChatGPT стал самым динамичным среди всех когда-либо созданных приложений. В 2024 году число ежемесячно активных пользователей ChatGPT превысило 100 миллионов.
Разработчики не забросили своё детище и продолжают совершенствовать его. Последняя версия чат-бота — GPT-4o — была запущена в мае текущего года. Инструментарий пополнился возможностью проведения бесед с нейросетью, а функции для работы с изображениями и видео были расширены.
Сейчас в OpenAI нацелились на создание системы общего искусственного интеллекта (AGI), который, в теории, смог бы превзойти интеллект человека. По мере развития компании растет количество скандалов и противоречий вокруг ее деятельности. Представляем вашему вниманию самые громкие курьёзы:
Разработчики не забросили своё детище и продолжают совершенствовать его. Последняя версия чат-бота — GPT-4o — была запущена в мае текущего года. Инструментарий пополнился возможностью проведения бесед с нейросетью, а функции для работы с изображениями и видео были расширены.
Сейчас в OpenAI нацелились на создание системы общего искусственного интеллекта (AGI), который, в теории, смог бы превзойти интеллект человека. По мере развития компании растет количество скандалов и противоречий вокруг ее деятельности. Представляем вашему вниманию самые громкие курьёзы:
- Скарлетт Йоханссон и обвинения в незаконном использовании ее голоса;
- увольнение и восстановление в должности СЕO Сэма Альтмана — всё за неделю;
- уход основателей и старших сотрудников;
- конфликт между Илоном Маском и OpenAI.
Скарлетт Йоханссон и ее протест из-за незаконного использования голоса
В мае OpenAI презентовала новую модель GPT с номером 4o, и тут понеслось. Одна из ее отличительных особенностей — умение распознавать и обрабатывать речь. В демонстрационном ролике можно расслышать, как бот меняет тон после просьбы быть саркастичным. Голос, на который бот реагирует, — еще один продукт от OpenAI. Он называется Sky.В комментариях к демонстрации пользователи подметили, что голос Sky похож на голос голливудской актрисы Скарлетт Йоханссон из фильма «Она», в котором девушка сыграла роль Саманты, виртуального ИИ-ассистента. Вскоре и сама актриса высказалась в адрес Sky и обвинила OpenAI в незаконном использовании ее голоса. Йоханссон написала заявление, в котором упомянула, что в сентябре 2023 года генеральный директор OpenAI Сэм Альтман предложил ей стать голосом для Sky. Актриса отклонила предложение. За два дня до запуска ChatGPT-4o агент Йоханссон получил еще одно письмо от Альтмана с просьбой пересмотреть предложение. Если верить его заявлению, они не успели ничего обсудить, а система уже была запущена.
Скарлетт Йоханссон наняла юрисконсульта, который направил в OpenAI письма с запросом о раскрытии процедуры создания Sky. Актриса заявила, что сходство между голосами было сделано намеренно, а твит Сэма Альтмана с единственным словом «она» в день выхода бота свидетельствует о наличии определенного умысла.
Я была потрясена, рассержена и не верила, что мистер Альтман станет использовать голос, который до жути похож на мой, и мои близкие друзья, и новостные агентства не смогут распознать разницуПозже Йоханссон поделилась своими впечатлениями от услышанного на презентации:
Скарлетт Йоханссон наняла юрисконсульта, который направил в OpenAI письма с запросом о раскрытии процедуры создания Sky. Актриса заявила, что сходство между голосами было сделано намеренно, а твит Сэма Альтмана с единственным словом «она» в день выхода бота свидетельствует о наличии определенного умысла.
В качестве ответной меры OpenAI приостановила работу Sky. В то же время компания опубликовала пресс-релиз, в котором сообщила, что не намеревалась делать голос похожим на Йоханссон; голос Sky выбирался путем кастинга.
Но завершением этой загадочной истории стал не менее интересный ход событий — в компанию вернулись Сэм Альтман и Грег Брокман, когда Хелен Тонер и Таша МакКоли потеряли свои должности в совете директоров.
Голос Sky не принадлежит Скарлетт Йоханссон, и никто не собирался делать его похожим на нее. Мы пригласили актера для озвучки Sky до того, как сумели сконтактировать с госпожой Йоханссон. Из уважения к госпоже Йоханссон мы приостановили использование голоса Sky в наших продуктах. Мы сожалеем, что не смогли наладить более эффективную коммуникацию с госпожой ЙоханссонПубликация сопровождалась и обращением Альтмана:
Так или иначе, если принять во внимание твит Альтмана и комментарии Скарлетт Йоханссон, то выбор озвучки не выглядит простым совпадением. Будет ли актриса подавать в суд — пока неизвестно.
Сэма Альтмана уволили и вновь наняли в течение одной недели. Причины до сих пор под вопросом
В ноябре 2023 года совет директоров OpenAI в лице Ильи Суцкевера, Хелен Тонер, Таши МакКоли и Адама Д'Анджело принял решение об увольнении генерального директора Сэма Альтмана. В их официальном заявлении было сказано, что Альтман лишился должности «из-за недостаточной искренности в общении с советом директоров». Означает ли это, что Альтман скрывал технологические разработки или строил другие партнерские отношения на стороне — не уточнили. После этих новостей ушел с поста и президент OpenAI Грег Брокман.
Увольнение Альтмана спровоцировало в компании настоящий хаос. Более 700 сотрудников пригрозили совету директоров уходом, если Альтман не будет восстановлен на должности. Более того, сотрудники пожелали, чтобы совет директоров сложил полномочия. Позже Илья Суцкевер напишет в посте, что глубоко сожалеет о своем участии в деятельности совета.
Увольнение Альтмана спровоцировало в компании настоящий хаос. Более 700 сотрудников пригрозили совету директоров уходом, если Альтман не будет восстановлен на должности. Более того, сотрудники пожелали, чтобы совет директоров сложил полномочия. Позже Илья Суцкевер напишет в посте, что глубоко сожалеет о своем участии в деятельности совета.
В этой ситуации весомую роль сыграла корпорация Microsoft, крупнейший инвестор OpenAI. На тот момент в компании объявили, что Альтман и Грег Брокман займут руководящие должности в новом исследовательском ИИ-подразделении.
Но завершением этой загадочной истории стал не менее интересный ход событий — в компанию вернулись Сэм Альтман и Грег Брокман, когда Хелен Тонер и Таша МакКоли потеряли свои должности в совете директоров.
Так в чем же дело?
Конечно, реакция такого большого количества сотрудников OpenAI, вставших на защиту своего генерального директора, говорит сама за себя, но у медали есть и обратная сторона. Недавно Хелен Тонер поделилась причинами произошедшего на TED AI Show, где и рассказала, за что уволили Альтмана. Если верить ее словам, люди боялись, что без Сэма OpenAI ждет крах, и не хотели лишаться обещанных пакетов акций во многомиллиардной компании. Хелен также отметила, что генеральный директор руководил компанией не иначе как посредством психологического насилия. Согласно Тонер, совет директоров не мог полностью доверять Альтману, поскольку бывали случаи, когда он утаивал важную информацию. В частности, он не сообщил совету директоров о релизе ChatGPT заранее. Другой проблемой, которую упомянула Хелен, оказались лживые заявления о соблюдении техники безопасности. По ее словам, Альтман пытался добиться увольнения Тонер после того, как она написала научную работу, в которой негативно отозвалась о корпоративном подходе OpenAI. В заключение Хелен отметила, что в 2019 году Альтмана уволили из Y Combinator за нечестность.
Илон Маск против OpenAI. Бесконечная перепалка
Хотя OpenAI получила широкую известность за последние годы, у компании более богатая история. В 2015 ее основали Илон Маск, Сэм Альтман, Грег Брокман, Илья Суцкевер, Андрей Карпаты и ряд других специалистов в качестве некоммерческой организации.Илон Маск — по совместительству крупнейший инвестор OpenAI — ушел в 2018 году из-за конфликта интересов. С годами этот конфликт несколько эволюционировал. Илон регулярно высказывается об OpenAI и подвергает критике ее стратегию. В основном это недовольство связано с переходом компании от модели с открытым исходным кодом к закрытому в 2019 году. В разных постах Маск отмечает, что ChatGPT преследует не интересы человечества, а максимизацию собственной прибыли. Дошло до того, что в марте 2024 года он подал в суд на OpenAI за изменение первоначальной бизнес-модели и потребовал компенсации.
В качестве ответной реакции OpenAI опубликовала письма, из которых стало известно, что в 2018 году Маск предлагал приобрести эту компанию за средства Tesla. В OpenAI утверждают, что в 2017 году будущий переход к модели коммерческой организации был согласован с предпринимателем. Однако Маск оставил компанию, когда его предложение о присоединении OpenAI к Tesla отвергли. Покидая проект, он сказал, что необходимо создать конкурента Google/DeepMind в области искусственного интеллекта и что он сделает это своими руками. В 2023 году Маск основал xAI, компанию с философией открытого кода, которая занимается разработкой Grok, бота-конкурента ChatGPT.
Нам грустно, что так вышло с человеком, которым мы глубоко восхищались, с тем, кто вдохновлял нас стремиться ввысь, а потом сказал, что у нас ничего не получится, основал конкурента, а позже подал на нас в суд, когда мы начали добиваться значимого прогресса в реализации миссии OpenAI без негоВот что по этому поводу говорят в OpenAI:
Решение о том, нарушила ли OpenAI условия контракта, вынесет суд. Между тем Маск не собирается отказываться от судебного разбирательства.
Ключевые сотрудники OpenAI продолжают увольняться
С шагами и решениями OpenAI не был согласен не только один Маск. Компанию покинули многие ее основатели, ученые и исследователи. В основном они уходят тихо, причины ухода из самого «горячего» ИИ-стартапа остаются неизвестными.В последние месяцы основатели компании Андрей Карпаты и Илья Суцкевер, считавшиеся одними из самых ярких специалистов в области искусственного интеллекта, объявили о своем увольнении и переходе к работе над личными проектами.
В то время как Андрей Карпаты и Суцкевер только начали работу над своими инновациями, один перспективный стартап, основанный бывшими сотрудниками OpenAI, уже набирает обороты. Речь идет об Anthropic, компании, которую запустили семь бывших сотрудников OpenAI, включая генерального директора Дарио Амодеи и его сестру Даниэлу Амодеи, занимающую пост президента. Ранее Дарио занимал должность вице-президента по научным исследованиям в OpenAI, а Даниэла была вице-президентом по вопросам безопасности и политики. Вместе они основали Anthropic в 2021 году как лабораторию для исследований в сфере ИИ-безопасности. Ими была создана и Сlaude — этичная нейросеть, которая является одним из главных конкурентов GPT.
Недавно к Anthropic присоединился Ян Лейке, бывший главный научный сотрудник отдела безопасности в OpenAI.
Недавно к Anthropic присоединился Ян Лейке, бывший главный научный сотрудник отдела безопасности в OpenAI.
Несколькими днями ранее Ян Лейке в Twitter рассказал о причинах ухода из OpenAI. Он упомянул разногласия с руководством компании касательно основных ее приоритетов и методов управления системами искусственного интеллекта. Лейке заявил, что, по его мнению, OpenAI следует выделить гораздо больше вычислительных мощностей для подготовки следующих поколений моделей с фокусом на аспектах безопасности, мониторинга и социального воздействия. В заключение он добавил:
«В последние годы культура безопасности и соответствующие процедуры отошли на второй план, уступив место ярким продуктам. Нам уже давно пора всерьез задуматься о последствиях появления AGI. Мы должны уделять первостепенное внимание подготовке к ним, насколько это возможно. Только в этом случае мы сможем гарантировать, что AGI принесет пользу всему человечеству».
Недавно OpenAI сформировала новый комитет по вопросам безопасности и защиты ИИ с целью оценки и развития систем искусственного интеллекта в компании. Данный шаг должен повысить уровень безопасности ИИ-решений, что в конечном итоге может привести к росту общественного доверия и снижению количества скандалов.
«В последние годы культура безопасности и соответствующие процедуры отошли на второй план, уступив место ярким продуктам. Нам уже давно пора всерьез задуматься о последствиях появления AGI. Мы должны уделять первостепенное внимание подготовке к ним, насколько это возможно. Только в этом случае мы сможем гарантировать, что AGI принесет пользу всему человечеству».
Модели OpenAI приближаются к уровню интеллекта человека
В начале 2024 года Сэм Альтман заявил, что в ближайшем будущем может появиться так называемый общий искусственный интеллект. Предполагается, что следующее поколение систем ИИ превзойдет людей в умственном плане. Эти машины смогут самостоятельно обучаться, понимать человеческие эмоции и адаптировать свой стиль общения, кроме прочих функций и умений. Что же касается опасений относительно перспективы, где технорешения заменят людей на рабочих местах, то Сэм Альтман в ходе Всемирного экономического форума отметил, что перемены будут менее значительными, чем думают люди.Недавно OpenAI сформировала новый комитет по вопросам безопасности и защиты ИИ с целью оценки и развития систем искусственного интеллекта в компании. Данный шаг должен повысить уровень безопасности ИИ-решений, что в конечном итоге может привести к росту общественного доверия и снижению количества скандалов.