Что такое галлюцинации ИИ?
Галлюцинации ИИ — это неверные ответы внутренней модели глубокого обучения, которые невозможно подкрепить входными данными. Например, изображение несуществующего объекта, имитация музыкального сочинения или псевдореалистичный текст.
Несмотря на успех и популярность искусственного интеллекта в различных областях (технологии, медицина, творчество), такие логические ошибки остаются главной проблемой для разработчиков. Они приводят к непредсказуемым результатам и вызывают сомнения у пользователей в надежности применения новой технологий.
Почему происходят галлюцинации ИИ?
В основе подобных искажений лежит сложный механизм многоуровневой структуры нейронных сетей, состоящих из искусственных нейронов — аналогов реальных клеток, но представленных в виде нелинейной функции. При обучении алгоритмы анализируют входные данные, стараются распознать закономерности и установить определенный вес каждому нейрону. Таким образом информация проходит через множество сетей и становится более абстрактной, что дает возможность создавать новый контент, ориентируясь на обучающий материал. Но иногда появляются ошибки, негативно меняющие результат. И хотя исследователи пока не определили конкретные причины такого явления, они выделяют несколько возможных объяснений:
1. Переоценка: при специализированном обучении или чрезмерной адаптации к исходным данным модели начинают генерировать галлюцинации, когда сталкиваются с неизвестными или неоднозначной запросами.
2. Предвзятость: если первоначальный набор информации содержит преобладающие данные, то искусственный интеллект может формировать неправильные ответы, поскольку происходит сильное смещение.
3. Недостаточное обучение: для изучения сложных шаблонов и формирования точных результатов требуется обширная база данных, но если их недостаточно, модель может спровоцировать галлюцинации.
4. Излишнее обучение: очевидный перегруз информацией способен вызывать искажения, поскольку повышается количество шумов и уменьшается вес редких нейронов, создавая расхождение.
5. Архитектура модели: наличие множества параметров влияют на вероятность появления галлюцинаций, а гиперпараметры (методы регуляции шума, уровень разнообразия ответов) провоцируют их еще больше.
6. Отсутствие понимания контекста: модели обучения часто не понимают контекста и неправильно интерпретируют отношения между объектами входных данных, что приводит к искажению информации.
7. Техническая проверка результатов: искусственный интеллект всегда руководствуется программным анализом для подтверждения работы, который может абсолютно не отражать нужный ответ для человека.
Конечно, это лишь ограниченный теоретический список. После формирования финального результата практически невозможно определить внутренние закономерности, которые привели модель к нему. Например, ChatGPT генерирует текст, учитывая запрос пользователя и ранее сформированные слова. И если галлюцинации попадается один раз, то в последующем диалоге чат-бот может увеличивать количество ложных данных пропорционально.
Есть еще много случаев, когда вы задаете ChatGPT вопрос, и он дает вам очень впечатляюще звучащий ответ, который совершенно неверен. И, конечно, это проблема, если вы тщательно не проверяете или не подтверждаете факты, – © Орен Этциони, генеральный директор и основатель Allen Institute for AI.
Поэтому OpenAI работает над проблемой и предупреждает пользователей о возможной генерации неправильных ответов. Остальные компании, занимающиеся разработкой ИИ, тоже прекрасно осведомлены о галлюцинациях. Более того, они привлекают исследователей со всего мира для совместной работы над сокращением искажений, потому что пока не существует конкретного решения. А глубокое изучение данного вопроса может предоставить ценную информацию о работе искусственного интеллекта для будущих разработок.