AiConf

Как мы применяем LLM с RAG в экосистеме ML-моделей поддержки ЛеманаТЕХ

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D

Python
ML
Support

Доклад принят в программу конференции

Целевая аудитория

- ML-инженеры и дата-сайентисты - Разработчики систем поддержки - Архитекторы AI-решений

Тезисы

С ростом числа обращений в (поддержку)Service Desk «ЛеманаПРО» классические ML-решения перестали покрывать все сценарии. В этом докладе мы расскажем про эволюцию моделей машинного обучения в поддержке "ЛеманаПРО" и как дополнили экосистему поддержки LLM с RAG для человекообразных ответов по Wiki и интеллектуального эскалации к живым специалистам.

Разберём:
- **Архитектуру эволюции:** от классических ML-моделей бустинги и другие классические мл алгоритмы до гибридной системы с LLM.
- **Стратегию внедрения:** зачем RAG для работы с документацией и где классические алгоритмы остаются эффективнее.
- **Подводные камни:** баланс между автоматизацией (статьи, шаблоны) и «очеловечиванием» ответов, контроль галлюцинаций.
- **Перспективы:** интеграция с Problem&Quality Management и кастомизация LLM под домен.

В разработке более 20 лет.
увлекаюсь ML DL
Табличные данные, обработка данных на естественном языке, компьютерное зрение
Последение 5 лет DS в ЛеманаТЕХ

Видео

Другие доклады секции

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D