Концепции

Галлюцинация (Hallucination)

Когда AI уверенно генерирует неправдивую информацию

Галлюцинация — ситуация, когда языковая модель генерирует фактически неверную информацию, при этом выглядящую правдоподобно.

Типы галлюцинаций:

  • Фактические ошибки — неверные даты, имена, числа
  • Выдуманные источники — несуществующие книги, статьи
  • Ложная уверенность — модель не признаёт незнания

Как уменьшить галлюцинации:

  • Использовать RAG (подключить источники)
  • Просить модель признавать незнание
  • Проверять факты
  • Использовать более новые модели

Галлюцинации — фундаментальная проблема LLM, так как они генерируют "правдоподобное продолжение", а не "правду".

Примеры использования

  • Модель выдумывает цитату известного человека
  • Неверная дата исторического события

Связанные термины