Как мы применяем LLM с RAG в экосистеме ML-моделей поддержки Лемана ТЕХ
Доклад принят в программу конференции
Целевая аудитория
Тезисы
С ростом числа обращений в Service Desk(поддержку сотрудников) классические ML-решения перестали покрывать все сценарии. В этом докладе мы расскажем про эволюцию моделей машинного обучения в поддержке и как дополнили экосистему поддержки LLM с RAG для человекообразных ответов по Wiki и интеллектуальной эскалации к живым специалистам.
Разберём:
- Архитектуру эволюции: от классических ML-моделей(бустинги) и другие мл алгоритмы до гибридной системы с LLM.
- Стратегию внедрения: зачем RAG для работы с документацией и где классические алгоритмы остаются эффективнее.
- Подводные камни: баланс между автоматизацией (статьи, шаблоны) и «очеловечиванием» ответов, контроль галлюцинаций.
- Перспективы: интеграция с Problem&Quality Management и кастомизация LLM под домен.
В разработке более 20 лет.
увлекаюсь ML DL
Табличные данные, обработка данных на естественном языке, компьютерное зрение
Последение 5 лет DS в ЛеманаТЕХ
Видео
Другие доклады секции
GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D