Почему это происходит
LLM не «знает» факты — она предсказывает вероятное продолжение текста. Если в обучающих данных было мало информации по теме, модель «додумает» — и сделает это уверенно.
Как защитить бизнес
- ▸RAG: модель отвечает только на основе ваших документов
- ▸Температура 0: минимум «креативности», максимум точности
- ▸Проверка фактов: второй агент проверяет ответ первого
- ▸Ограничение домена: бот говорит «я не знаю» вместо выдумки