Уменьшение галлюцинаций

December 3, 2025

Мы продолжаем улучшать фундаментальной работу ИИ-продажников в Pleep. В этом месяце мы внедрили архитектурные изменения, которые сильно повысили точность и безопасность диалогов.

Что было раньше: случаи с галлюцинациями

Для начала, давайте разберемся, что такое галлюцинация. Иногда ИИ может генерить правдоподобные, но ложные ответы — например, выдавать неверные названия или цены. Это базовый недостаток LLM-моделей. ИИ не «знает» факты так, как их знает человек. Он обучен предсказывать наиболее правдоподобное продолжение текста, не обязательно самое правдивое. Поэтому ИИ всегда пытается дать хоть какой-то ответ, даже если истинный ответ ему неизвестен.

Что изменилось

Мы имплементировали сложную систему защиты от галлюцинаций, чтобы практически полностью их исключить и уже повысили аккуратность ответов до 99.71% (RAGBench Evals, 1000 shots).

Это делает Pleep самым достоверным ИИ-продажником на рынке СНГ.

RAGBench Evals, 1000 shots

Уже за последние 7 дней во время теста изменений новая система помогла предотвратить 17,589 потенциально плохих ответов, которые могли не только содержать выдуманную информацию, но и просто путать цены на разные продукты.

Если ИИ не может верифицировать информацию (например, клиент написал с нестандартным вопросом), то он не выдумывает, а переводит диалог на оператора.

Мы продолжаем делать Pleep #1 в продажах, стабильности и достоверности, так как знаем, что ошибки в отделе продаж – недопустимы