Концепции
Галлюцинация (Hallucination)
Когда AI уверенно генерирует неправдивую информацию
Галлюцинация — ситуация, когда языковая модель генерирует фактически неверную информацию, при этом выглядящую правдоподобно.
Типы галлюцинаций:
- Фактические ошибки — неверные даты, имена, числа
- Выдуманные источники — несуществующие книги, статьи
- Ложная уверенность — модель не признаёт незнания
Как уменьшить галлюцинации:
- Использовать RAG (подключить источники)
- Просить модель признавать незнание
- Проверять факты
- Использовать более новые модели
Галлюцинации — фундаментальная проблема LLM, так как они генерируют "правдоподобное продолжение", а не "правду".
Примеры использования
- •Модель выдумывает цитату известного человека
- •Неверная дата исторического события