OpenAI пояснила, чому мовні моделі «галюцинують» і як це виправити

OpenAI

Попри значний прогрес у розвитку штучного інтелекту, навіть найсучасніші мовні моделі залишаються схильними до так званих галюцинацій — випадків, коли система впевнено видає неправдиву інформацію. У свої публікації OpenAI пояснює, чому виникає ця проблема, і чому традиційні методи тренування та оцінки моделей фактично заохочують «вгадування», а не чесне визнання невпевненості.

Що таке галюцинації у мовних моделях

Галюцинаціями називають правдоподібні, але хибні твердження, які моделі можуть видавати навіть у відповідь на прості запитання. Як приклад, автори наводять випадки, коли популярний чат-бот кілька разів вигадував назви дисертації та дати народження одного з науковців, що брали участь у дослідженні.

Чому вони виникають

ChatGPT

За словами дослідників, головна причина криється в методах оцінки. Якщо модель отримує «бали» лише за точні відповіді, то вона вчиться ризикувати та вгадувати, адже це іноді приносить результат. Натомість чесна відповідь «я не знаю» гарантує нуль балів, і тому в загальному рейтингу виглядає гірше.

Ця ситуація нагадує тест із множинним вибором: здогад може випадково бути правильним, тоді як відмова від відповіді завжди означає програш. Саме тому моделі навчаються давати впевнені, але часто хибні твердження.

OpenAI пропонує оновити систему оцінювання:

  • штрафувати за впевнені помилки більше, ніж за відмову від відповіді;
  • давати частковий залік за вираження невпевненості;
  • змінити головні метрики так, щоб вони заохочували чітке визнання меж знань.

На думку дослідників, саме це допоможе зменшити кількість галюцинацій і стимулювати створення моделей, які відповідальніше підходять до генерації фактів.

Як це пов’язано з процесом навчання моделей

ChatGPT

Галюцинації також виникають через особливості попереднього навчання, коли моделі вчаться передбачати наступне слово у тексті. Вони добре запам’ятовують закономірності (правопис, синтаксис), але не здатні надійно виводити випадкові чи рідкісні факти, наприклад, дату народження конкретної людини. Це призводить до того, що ШІ іноді вигадує «логічно ймовірні», але некоректні відповіді.


Телеграм double.newsТелеграм double.news

Схожі Новини
ChatGPT

OpenAI запустила бібліотеку у ChatGPT для зручного зберігання файлів

OpenAI представила нову функцію бібліотеки у ChatGPT, яка дозволяє користувачам зберігати завантажені файли та повторно використовувати їх у різних чатах. Інструмент спрямований на спрощення роботи з документами та підвищення продуктивності користувачів.
Детальніше
Gemini

Square Enix і Google інтегрують Gemini у Dragon Quest X для покращення геймплею

Square Enix оголосила про впровадження генеративного штучного інтелекту у свою популярну онлайн-гру Dragon Quest X. Нова функція створена у співпраці з Google і базується на AI-моделі Gemini.
Детальніше
Apple Maps

Apple планує запустити рекламу в Apple Maps для зростання доходів – Bloomberg

Apple готується до запуску реклами у своєму сервісі Apple Maps. За інформацією Bloomberg, цей крок стане частиною масштабної стратегії з розширення доходів від сервісів, які вже відіграють ключову роль у бізнес-моделі компанії.
Детальніше