Що таке галюцинації ШІ?
Галюцинації ШІ — це неправильні відповіді внутрішньої моделі глибокого навчання, які неможливо підкріпити вхідними даними. Наприклад, зображення неіснуючого об’єкта, імітація музичного твору чи псевдореалістичний текст.
Незважаючи на успіх та популярність штучного інтелекту в різних галузях (технології, медицина, творчість), такі логічні помилки залишаються головною проблемою для розробників. Вони призводять до непередбачуваних результатів та викликають серед користувачів сумніви щодо надійності застосування нових технологій.
Чому стаються галюцинації ШІ?
В основі подібних спотворень — складний механізм багаторівневої структури нейронних мереж, що складаються зі штучних нейронів — аналогів реальних клітин, але представлених у вигляді нелінійної функції. При навчанні алгоритми аналізують вхідні дані, намагаються розпізнати закономірності та встановити певну вагу кожному нейрону. У такий спосіб інформація проходить через безліч мереж і стає абстрактнішою, що дає можливість створювати новий контент, орієнтуючись на навчальний матеріал. Але іноді з’являються помилки, які негативно позначаються на результаті. І хоча дослідники поки що не визначили конкретні причини такого явища, вони виділяють декілька можливих пояснень:
1. Переоцінка: при спеціалізованому навчанні або надмірній адаптації до вихідних даних моделі починають генерувати галюцинації, коли стикаються з невідомими чи неоднозначними запитами.
2. Упередженість: якщо початковий набір інформації містить дані, що переважають, то штучний інтелект може формувати неправильні відповіді, оскільки відбувається сильне зміщення.
3. Недостатнє навчання: для вивчення складних шаблонів і формування точних результатів потрібна велика база даних, але якщо їх недостатньо, модель може спровокувати галюцинації.
4. Надмірне навчання: очевидне перевантаження інформацією здатне викликати спотворення, оскільки підвищується кількість шумів та зменшується вага рідкісних нейронів, створюючи розбіжність.
5. Архітектура моделі: наявність безлічі параметрів впливає на ймовірність появи галюцинацій, а гіперпараметри (методи регулювання шуму, рівень різноманітності відповідей) провокують їх ще більше.
6. Нерозуміння контексту: моделі навчання часто не розуміють контекст і неправильно інтерпретують відносини між об’єктами вхідних даних, що призводить до спотворення інформації.
7. Технічна перевірка результатів: штучний інтелект для підтвердження роботи завжди керується програмним аналізом, який може абсолютно не передавати потрібну відповідь для людини.
Звісно, це лише обмежений теоретичний перелік. Після формування фінального результату практично неможливо визначити внутрішні закономірності, що привели модель до нього. Наприклад, ChatGPT генерує текст, враховуючи запит користувача та раніше сформовані слова. І якщо галюцинація трапляється один раз, то в подальшому діалозі чат-бот може пропорційно збільшувати кількість хибних даних.
Є ще багато випадків, коли ви ставите ChatGPT питання, і він надає вам вражаючу відповідь, яка є абсолютно неправильною. І, звісно, це проблема, якщо ви ретельно не перевіряєте чи не підтверджуєте факти, — © Орен Етціоні, генеральний директор та засновник Allen Institute for AI.
Тому OpenAI працює над проблемою та попереджає користувачів про можливу генерацію неправильних відповідей. Інші компанії, що займаються розробкою ШІ, також чудово обізнані щодо галюцинацій. Більше того, вони залучають дослідників з усього світу для спільної роботи над скороченням кількості спотворень, адже досі не існує конкретного вирішення проблеми. А глибоке вивчення цього питання може надати цінну інформацію про роботу штучного інтелекту для майбутніх розробок.