AiConf

Как мы применяем LLM с RAG в экосистеме ML-моделей поддержки Лемана ТЕХ

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D

Python
ML
Support

Доклад принят в программу конференции

Целевая аудитория

- ML-инженеры и дата-сайентисты - Разработчики систем поддержки - Архитекторы AI-решений

Тезисы

С ростом числа обращений в Service Desk(поддержку сотрудников) классические ML-решения перестали покрывать все сценарии. В этом докладе мы расскажем про эволюцию моделей машинного обучения в поддержке и как дополнили экосистему поддержки LLM с RAG для человекообразных ответов по Wiki и интеллектуальной эскалации к живым специалистам.

Разберём:
- Архитектуру эволюции: от классических ML-моделей(бустинги) и другие мл алгоритмы до гибридной системы с LLM.
- Стратегию внедрения: зачем RAG для работы с документацией и где классические алгоритмы остаются эффективнее.
- Подводные камни: баланс между автоматизацией (статьи, шаблоны) и «очеловечиванием» ответов, контроль галлюцинаций.
- Перспективы: интеграция с Problem&Quality Management и кастомизация LLM под домен.

В разработке более 20 лет.
увлекаюсь ML DL
Табличные данные, обработка данных на естественном языке, компьютерное зрение
Последение 5 лет DS в ЛеманаТЕХ

Видео

Другие доклады секции

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D