Open AI VS NYT: причини конфлікту
The New York Times не розповідає всієї історії: в Open AI вирішили винести конфлікт з журналістами видання на широкий загал. У своєму блозі лідер ШІ-ринку прокоментував судову суперечку з авторитетним американським часописом.
Нагадаємо, наприкінці грудня 2023 року NYT подала до суду позов на OpenAI та її найбільшого інвестора, компанію Microsoft. Медіа звинуватило розробників систем ШІ у порушенні авторських прав та, як наслідок, багатомільярдних збитках. У The New York Times заявили, що OpenAI та Microsoft паразитують на плодах багаторічної праці журналістів, абсолютно безкоштовно навчаючи ШІ на текстах статей їхнього видання.
Варто зазначити, що обговорювати подробиці судового розгляду у корпоративному блозі – рішення неоднозначне. Зазвичай у ситуаціях, коли конфлікт дійшов до суду, компанії показово відмовляються від коментарів, надаючи змогу розібратись у справі професійним юристам.
Але в Open AI вирішили піти іншим шляхом і скористатися нагодою, щоб “прояснити наш бізнес, наші наміри і те, як ми створюємо наші технології”.
З'ясувалося, що компанія цілеспрямовано співпрацює з журналістами новин, у тому числі з галузевими організаціями, такими як News Media Alliance (об'єднує близько 2 тис. американських ЗМІ). Наприклад, Open AI запропонувала ЗМІ відображати контент у ChatGPT, зазначаючи авторство та надаючи видавцям нові можливості взаємодії з цільовою аудиторією.
Розробники наголошують: "Навчання моделей ШІ з використанням загальнодоступних інтернет-матеріалів є добросовісним використанням". Під добросовісним використанням розуміють умови, за яких законодавство США дозволяє використовувати матеріали, захищені авторським правом, без отримання попередньої згоди правовласника. Тож навчання ШІ цілком задовольняє ці умови, оскільки слугує прогресу науки, мистецтва тощо. Але, як зазначають в Open AI, будь-який правовласник може заборонити чат-боту "бачити" його сайт (у компанії стверджують, що The New York Times скористалася цією можливістю у серпні 2023 року).
В Open AI не приховують, що були вражені, коли дізналися про початок судових розглядів з боку NYT. У компанії вважали, що переговори з редакцією видання є конструктивними. Остання зустріч розробників з журналістами газети відбулася лише за тиждень до подання позову. Представникам Open AI тоді здалося, що The New York Times згодна на те, щоб статті газети відображалися у ChatGPT за умови, що буде вказане джерело публікацій. Це дозволило б виданню одержати прямий трафік на свій сайт.
Втім, в Open AI не заперечують, що редакція була не задоволена тим, що за певних умов чат-бот дослівно цитує її публікації.
Під час розмови вони згадували, що неодноразово помічали використання свого контенту, але постійно відмовлялися надавати приклади, незважаючи на нашу готовність провести розслідування і вирішити будь-які проблеми, – стверджують в OpenAI.
Розробники припускають, що йдеться про давні публікації NYT, які були багато разів передруковані іншими ресурсами. Та й то, швидше за все, “вони навмисно маніпулювали промптами, часто включаючи чималі уривки зі статей”. А потім ще й додатково обирали відповіді чату, максимально близькі до першоджерела – сайту The New York Times.
При цьому в Open AI особливо наголошують, що підвищення стійкості чат-бота до атак, спрямованих на отримання даних навчання, є пріоритетним завданням. Щоправда, проблема досі лишається доволі гострою. Наприклад, наприкінці 2023 року стало відомо, що інформацію можна отримати від ChatGPT за допомогою елементарних промптів.
“Ми вважаємо позов The New York Times безпідставним. Ба більше, ми сподіваємося на конструктивне партнерство з The New York Times і поважаємо її давню історію, яка включає повідомлення про першу робочу нейронну мережу понад 60 років тому і захист свобод Першої поправки”, – резюмують в OpenAI.
Останні пасажі звучать цілком примирливо. Але залишається незрозумілим, у чому причина такого гнівного публічного випаду OpenAI. Також лишається без відповіді запитання, чому The New York Times вийшла з переговорів із розробником ChatGPT без пояснення причин. Отже, рішення суду, поза всяким сумнівом, вплине на подальший розвиток ринку ШІ.
Нагадаємо, раніше ми писали, що експерти Всесвітнього економічного форуму назвали технологію штучного інтелекту головною загрозою для глобальної стабільності.