Ильяaiorkestrator.ru
AI/ML Основы

Галлюцинация AI

Определение

Галлюцинация AI — ситуация, когда модель уверенно выдаёт неправильный ответ. Именно поэтому в бизнес-решениях используют RAG и проверку фактов, а не «голую» генерацию.

Почему это происходит

LLM не «знает» факты — она предсказывает вероятное продолжение текста. Если в обучающих данных было мало информации по теме, модель «додумает» — и сделает это уверенно.

Как защитить бизнес

  • RAG: модель отвечает только на основе ваших документов
  • Температура 0: минимум «креативности», максимум точности
  • Проверка фактов: второй агент проверяет ответ первого
  • Ограничение домена: бот говорит «я не знаю» вместо выдумки

Хотите внедрить это в своём бизнесе?

Первый созвон бесплатно — разберём, как галлюцинация ai поможет именно вам.