Как применяют LLM с RAG в экосистеме ML-моделей поддержки Лемана Тех? Кейс

С ростом числа обращений в Service Desk классические ML-решения перестали покрывать все сценарии. Что же с этим делать?

Свет на проблему прольет Дмитрий Терентьев. В этой статье мы разберем:

  • архитектуру эволюции: от классических ML-моделей (бустинги) и других ML-алгоритмов до гибридной системы с LLM;
  • стратегию внедрения: зачем RAG для работы с документацией и где классические алгоритмы остаются эффективнее;
  • подводные камни: баланс между автоматизацией (статьи, шаблоны) и «очеловечиванием» ответов, контроль галлюцинаций;
  • перспективы: интеграция с Problem&Quality Management и кастомизация LLM под домен;
  • опыт удачных и неудачных подходов.