AiConf

Тачка на прокачку: адаптируем вашу старую ретриву к новым вызовам

Продуктизация AI-решений

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

ML-инженеры

Тезисы

Несмотря на повсеместное использование гибридных схем (BM25 + нейросетевые энкодеры типа ColBERT) современные системы поиска сталкиваются с тремя фундаментальными проблемами: 1) необходимость повышения точности поиска (качества) без слепого увеличения размеров моделей; 2) потребность в высокой производительности и низкой задержке при масштабировании; 3) растущая сложность работы с множеством разнородных источников данных. «Народные» решения часто оказываются тупиковыми, приводя к чрезмерным вычислительным затратам без адекватного улучшения метрик.

В докладе расскажу как изменились подходы к разработке семантического поиска и какие паттерны брать в пример в 2026 году. В части качества развенчаем мифы (например, про увеличение top-k или обучение на синтетике) и покажем современный стек: акцент на качестве данных (diversity sampling, экспертные Q/A пары), продвинутые техники обучения (дистилляция, новые функции потерь) и обязательное использование reranker'ов. В части производительности разберем архитектурные трюки, включая превращение декодеров в энкодеры и стратегии кэширования. Для задачи множества источников обсудим архитектурные выборы. Вся теория будет подкреплена конкретными экспериментами и метриками.

На выходе будет рецепт по улучшении ретривы в 2026 году, подходы из современного ML-стека, которые работают на практике, и подходы-антипаттерны, чтобы избежать дорогостоящих ошибок.

Владислав Попов

ТочкаБанк

Разрабатывает поисковые системы, обучает LLM, делает ресерч в направлении языковой адаптации.

Видео

Другие доклады секции

Продуктизация AI-решений