Как применяют LLM с RAG в экосистеме ML-моделей поддержки Лемана Тех? Кейс

С ростом числа обращений в Service Desk классические ML-решения перестали покрывать все сценарии. Что же с этим делать?
Свет на проблему прольет Дмитрий Терентьев. В этой статье мы разберем:
- архитектуру эволюции: от классических ML-моделей (бустинги) и других ML-алгоритмов до гибридной системы с LLM;
- стратегию внедрения: зачем RAG для работы с документацией и где классические алгоритмы остаются эффективнее;
- подводные камни: баланс между автоматизацией (статьи, шаблоны) и «очеловечиванием» ответов, контроль галлюцинаций;
- перспективы: интеграция с Problem&Quality Management и кастомизация LLM под домен;
- опыт удачных и неудачных подходов.