📣 OpenAI зупинила зловживання моделями ШІ

опубліковано  31 трав 2024
Фото - OpenAI зупинила зловживання моделями ШІ
  За останні три місяці OpenAI припинила п'ять інформаційних операцій (IO), у яких невідомі користувачі застосовували продукти компанії для неправомірної діяльності (фейки, політичні маніпуляції тощо). Здебільшого вони створювали короткі коментарі, статті різними мовами, переклади текстів і багато іншого.

  Одна з припинених операцій — «Погана граматика» (умовна назва OpenAI) була організована росіянами та націлена на українських, молдавських і балтійських користувачів месенджера Telegram. Вони використовували штучний інтелект для налагодження ботів і генерацію політичних коментарів різними мовами.

Друга операція під назвою «Двійник», що теж зародилася в росії, була спрямована на створення коментарів англійською, французькою, німецькою та іншими європейськими мовами, які публікувалися в соціальній мережі X. Крім того, в рамках цієї операції створювали окремі статті, заголовки та цілі пости у Facebook.

    Решта три IO виявилися пов'язані з Китаєм, Іраном та Ізраїлем з метою дослідження громадської активності та генерації статей різними мовами для просування певних наративів. Публікації розміщувалися на безлічі сервісів, включно з Instagram, Facebook, Medium, X та іншими популярними соціальними платформами.

  Серед усіх операцій можна виділити основні теми текстів: вторгнення росії в Україну, військові дії в секторі Гази, індійські та американські вибори, політичні рішення в Європі та США, а також критика комуністичного уряду Китаю. За даними OpenAI, використання ШІ не призвело до значного збільшення охоплення аудиторії.

   Усі учасники операцій комбінували різні способи застосування штучного інтелекту, як-от генерацію коментарів до власних публікацій. Розслідування OpenAI також проводилося з використанням ШІ, а докладні результати компанія опублікувала, щоб поділитися досвідом зі спільнотою та іншими технологічними компаніями.

Більше актуальних новин
Sidebar ad banner