Доклады (программа в стадии формирования)
LLM (7)
💻 Мастер-класс «Schema-Guided Reasoning на практике: архитектура и паттерны SGR Agent Core»
Пожалуйста, обратите внимание: видеотрансляция и запись мастер-класса вестись не будут.
Агентные системы часто быстро превращаются в набор разрозненных промптов, тулов и частных решений, которые сложно сопровождать и масштабировать. В докладе расскажу, какие проблемы мы встретили в реальных проектах и почему пришли к Schema-Guided Reasoning как к способу сделать поведение агентов более предсказуемым, управляемым и повторяемым. Разберем типовые сложности с отладкой и ростом числа интеграций, а также как мы упаковали эти уроки в архитектуру SGR Agent Core.
Покажу, как устроена централизованная настройка через конфиг и зачем она нужна, чтобы единообразно управлять моделями, промптами, инструментами и окружениями без правок по всему коду. Отдельно разберем OpenAI-совместимый сервер, который позволяет подключать фреймворк как привычный backend для клиентов и быстро встраивать его в существующий стек.
Главная идея — пользователям не нужно разбираться в том, как работает ядро, чтобы собирать свои решения. Мы обсудим, как проектировать агентов и инструменты как расширения поверх стабильного API, какие паттерны упрощают разработку и поддержку, и как ускорить путь от прототипа к продакшену без потери контроля над поведением агентной системы.
Важно! Для участия в данном формате с собой необходимо иметь ноутбук.
Доклад принят в программу конференции
💻 Мастер-класс «Смотри, как думает агент: Observability AI-агентов с Langfuse»
Пожалуйста, обратите внимание: видеотрансляция и запись мастер-класса вестись не будут.
AI-агенты в продакшене — это больше не эксперимент, а критичная инфраструктура. Но как понять, правильно ли агент отвечает, где и почему он «галлюцинирует» и во сколько реально обходится его использование?
На мастер-классе мы разберем Langfuse — open source-инструмент наблюдаемости для AI-приложений. Покажем, как организовать централизованный мониторинг ИИ-агентов и прямо на месте сделаем вашего агента наблюдаемым. Участники научатся трассировать вызовы LLM, собирать метрики, оценивать качество ответов и выполнять диагностику агентов так же, как и обычных продовых сервисов и приложений.
Минимум слайдов, максимум практики: реальный агент, реальный прод-подход и живое инструментирование вместе с аудиторией.
Важно! Для участия в данном формате с собой необходимо иметь ноутбук. Код для воркшопа и требования к подготовке по ссылке: https://github.com/bocharovf/langfuse-workshop
Доклад принят в программу конференции
Мастер-класс «Движки инференса LLM в 2026: vLLM, SGLang, NVIDIA Dynamo — как запустить on‑prem-прод и не изобрести велосипед»
LLM-инференс выделился в отдельный класс задач: ключевую роль играют KV-cache, разделение prefill/decode и работа с длинными контекстами, что напрямую влияет на латентность и загрузку GPU.
В результате индустрия пришла к специализированным движкам (vLLM, SGLang), а NVIDIA развивает Dynamo AI — набор подходов и компонентов для более предсказуемых SLO и максимальной утилизации ускорителей.
Доклад принят в программу конференции
Синтетические задачи в стиле Codeforces для претрейна GigaChat
Качество больших языковых моделей сильно зависит от масштаба и качества данных, а объем «хорошего» естественного текста ограничен. Поэтому все чаще для обучения LLM используют синтетические данные — но вместе с этим появляется новая проблема: синтетику легко «нагенерировать», а вот надежно проверить ее качество гораздо сложнее.
В докладе я расскажу про то, как мы построили конвейер генерации полностью синтетических задач по олимпиадному программированию и их автоматической валидации. По ходу работы мы придумали как с помощью LLM писать тесты, выстроили массовую проверку решений (сотни миллионов прогонов кода) и нашли способ надежно отбраковывать задачи и решения в условиях, когда нет эталонных ответов. Итоговые данные мы использовали в претрейне GigaChat Ultra.
Доклад принят в программу конференции
IT-ландшафт будущего: как китайские tech-гиганты и культура меняют мир
Мир переходит от индустриального общества к цифровому, и этот переход совпадает со сменой лидера на Восток. Моя поездка по китайским компаниям (Baidu, Xiaomi, SenseTime и другим) позволила мне увидеть их устройство и культуру в действии. Я увидел, как совмещается свобода и инициатива с организацией команды в военный отряд, как без страхов и пренебрежения интегрировать ИИ в работу и повседневную жизнь, как эпоха перемен воспринимается как возможность, а не проклятие, как государство руководит через координацию, а не директивы. Я расскажу об этом и поразмышляю, как все это повлияет на мировую ИТ-индустрию. Надеюсь, что это поможет вам разобраться в происходящих изменениях, взять полезные практики и лучше проектировать личную траекторию жизни.
Доклад принят в программу конференции
Наш путь в Machine Unlearning: от теории к практике
Со взрывным ростом GenAI мы все чаще сталкиваемся с ситуацией, когда модель знает слишком много. Утечки персональных данных, нарушение авторских прав и токсичный контент создают риски, с которыми уже нельзя бороться простыми системными промптами. При этом полное переобучение модели для удаления одного факта — это слишком долго и дорого.
В этом докладе мы разберем концепцию Machine Unlearning — набор методов, позволяющих точечно «стирать» информацию из весов модели. Мы перейдем от теории к практике: разберем существующие инструменты, поделимся опытом того, как мы проводим процесс разобучения и расчета метрик, а также продемонстрируем результаты наших экспериментов и представим наше собственное Open Source-решение, основанное на форке проекта OpenUnlearning.
Доклад принят в программу конференции
Не NVIDIA единой, или Как строить архитектуру LLM-продукта
NVIDIA — монополист в сфере AI-железа с долей свыше 80% рынка, а вот CUDA стала экосистемой с сетевыми эффектами, а миграция на альтернативы кажется не просто тяжелым решением, но и мало кто осилит.
AMD стоит в production у Microsoft Azure, Google TPU сэкономил Midjourney $16.8M в год, Cerebras выдает в 8 раз больше токенов в секунду, чем топовые GPU NVIDIA. Groq убрал из архитектуры рантайм-планировщик и получил детерминированную латентность. SambaNova первым запустил крупнейшую open source-модель без единого GPU. А AWS построил крупнейший non-NVIDIA кластер — полмиллиона собственных чипов для Anthropic.
В этом докладе разберем, почему узкое место LLM-инференса — не вычислительная мощность, а пропускная способность памяти, и как нестандартные архитектуры — вафельные чипы, dataflow-процессоры, детерминированные стримеры — пытаются решить эту проблему в лоб.
Доклад принят в программу конференции
Оптимизация железа (1)
Оптимизация доставки данных в real-time-ранжировании на GPU
В задачах ML-инференса с использованием GPU основное внимание обычно уделяется оптимизации вычислений самой модели. При этом на практике значимую долю времени может занимать доставка данных: подготовка и передача признаков до GPU нередко вносят существенный вклад в общую latency.
В докладе рассматривается архитектура real-time-сервиса ранжирования, где признаки поступают из разных источников: часть передается в запросе по сети, часть хранится локально, в том числе в памяти GPU. Основной фокус — на оптимизации всего пути данных: от запроса до входных тензоров модели на GPU. Будут разобраны типичные bottleneck’и (сеть, CPU→GPU передача, подготовка данных на GPU) и практические подходы к их устранению: оптимизация формата и структуры данных, минимизация копирований и сборка входных тензоров непосредственно в памяти GPU.
Подходы основаны на практическом опыте разработки высоконагруженного сервиса ранжирования на GPU. Они позволяют снизить latency и повысить утилизацию GPU.
Доклад принят в программу конференции
Сбор Dataset (3)
Панельная дискуссия «От хайпа к прибыли: как встроить ИИ в продукт, чтобы это работало»
Сегодня ИИ пытаются встроить почти все и во всё. В питчах — революция, в роадмапах — AI-first, в бизнес-моделях — AI-Native. Но на выходе слишком часто получается знакомый сценарий: громкий пилот, много шума, слабый результат и вопрос, который никто не любит задавать вслух, а где здесь деньги?
На этом круглом столе не будет дежурных восторгов про «трансформацию индустрии». Вместо этого мы проведем открытый разговор о том, почему одни AI-фичи действительно меняют продукт и приносят прибыль, а другие оказываются дорогой игрушкой, раздражают пользователей и умирают после первого же столкновения с реальностью. Это дискуссия про неудобные вопросы, на которые все равно придется отвечать всем, кто хочет зарабатывать на ИИ.
Соберем на одной сцене тех, кто каждый день отвечает за результат: продактов, ML-инженеров и экспертов, которые встраивают ИИ в реальные продукты. Будем говорить жестко и по делу: где заканчивается мода и начинается настоящая пользовательская ценность, почему AI-проекты ломаются уже на старте, когда стоит брать готовое решение, а когда без собственной модели не обойтись, кто отвечает за ошибки ИИ в проде и можно ли всерьез считать AI-агентов следующим этапом продуктовой эволюции.
Доклад принят в программу конференции
Разметка против реальности: как фрод выявляет слабые места датасета
В задачах с пользовательскими данными датасет быстро теряет актуальность: появляются новые сценарии, фрод и неоднозначные кейсы, с которыми разметка не всегда справляется. На примере фотоконтроля курьеров покажу, как выстраивается процесс разметки и дообогащения данных и почему датасет становится ключевой частью ML-системы.
Доклад принят в программу конференции
💻 Мастер-класс «Собираем датасет для ML в 2026 году»
Пожалуйста, обратите внимание: видеотрансляция и запись мастер-класса вестись не будут.
В мастер-классе мы пройдем путь от идеи до работающей модели сегментации изображений. В том числе мы научимся работать с проектами в Яндекс Заданиях, подготовим датасет руками исполнителей, подключим к разметке GPT.
Важно! Для участия в данном формате с собой необходимо иметь ноутбук.
Доклад принят в программу конференции
Научный стрим (2)
Как смотреть на табличные данные: подвыборки и метахарактеристики вместо отдельных объектов
Табличные данные — один из самых распространенных форматов в машинном обучении, однако до сих пор не существует устойчивого и универсального способа «смотреть» на них. В отличие от изображений или текста, отдельный объект табличного датасета редко несет самостоятельную семантическую нагрузку.
В этом докладе я покажу, почему point-wise-взгляд на табличные данные может быть неэффективен, и предложу альтернативу: рассматривать подвыборки данных и их метахарактеристики как основной объект анализа. Мы обсудим, как такие представления позволяют: лучше описывать структуру данных, выявлять скрытые сдвиги распределений, строить более реалистичные тесты для оценки устойчивости моделей.
Подход будет проиллюстрирован на задаче out-of-distribution (OOD) тестирования, где подвыборки с контролируемыми метахарактеристиками позволяют заранее оценивать деградацию качества моделей — даже при отсутствии реальных OOD-данных.
Доклад принят в программу конференции
Жизнь научной статьи по ИИ: от идеи до A*
Обсудим рабочий процесс создания статьи в области искусственного интеллекта от генерации идеи через процесс написания текста и подачи на конференции до продвижения своей работы в сообществе. Отдельно обсудим использованием современных LLM-инструментов автоматизации научного процесса.
Доклад принят в программу конференции
Продуктизация AI-решений (4)
Как мы внедрили LLM-судей в автоматизациях клиентского сервиса: подход, грабли, уроки
Автоматизации в клиентском сервисе — чат-боты и подсказки оператору — быстро развиваются, но их качество сложно мониторить: ручная разметка дорогая, а продуктовые метрики (AHT/CSAT) не позволяют найти инсайтов, обнаружить систематические проблемы.
В докладе я расскажу, как мы построили систему LLM-судей, которая оценивает весь прод-поток и формирует на дашбордах метрики качества по ключевым критериям, а небольшую долю запросов параллельно проверяют эксперты — для калибровки и контроля судьи.
Разберем, какие критерии реально работают для оценки чат-ботов и GPT-ассистентов, как подбирать промпты для судьи, что стоит / не стоит показывать судье (контекст, логи, мету). Поделюсь практическими приемами, схемой пайплайна, а также набором граблей и решений, которые помогли сделать систему стабильной и полезной для продуктовой команды. Также поговорим про то, какие глобально есть best practice и тренды по настройке LLM-судей, что из этого мы пробовали и какие результаты получили.
Доклад принят в программу конференции
Групповая работа «AI для бизнеса без иллюзий. Откровенный разговор о том, как продавать, защищать и выращивать AI-продукты в реальном бизнесе»
Пожалуйста, обратите внимание: видеотрансляция и запись вестись не будут.
Неформальное общение с эспертами продуктизации AI — теми, кто уже прошел огонь, воду, сопротивление изменениям и бюджетные комитеты. Формат: 5 тематических столов, каждый ведет спикер-модератор. Участники выбирают стол по теме, которая болит больше всего, после чего — свободное общение. Через 20 минут — ротация, можно перейти к другому столу.
«Покажи деньги» Как обосновать ROI от AI, когда есть MVP без цифр, построить бизнес-кейс на прокси-метриках и разговаривать с бизнесом на понятном им языке.
«Это не магия» Как управлять ожиданиями стейкхолдеров, когда CEO хочет «наш GPT к пятнице», а продажи уже наобещали клиентам то, чего даже нет в бэклоге.
«У нас есть данные (нет)» Как строить AI, когда данные в экселях, а цифровизация только запланирована на Q4.
«Пилот прошел, что дальше?» Как перейти от успешного эксперимента к масштабированию, и почему 90% пилотов умирают на этом этапе.
«Оно не работает» Как побороть сопротивление внутри команды, перестать быть угрозой и доказывать ценность AI тем, кто в нее не верит.
Доклад принят в программу конференции
От рутины к автономии: AI-помощник для управления облачной инфраструктурой
В докладе разберем эволюцию нашей агентной системы «Гига-помощник», которая позволяет пользователям развертывать облачную инфраструктуру. Мы покажем честный срез в формате «было/стало» за полгода жизни проекта в продакшене.
О чем поговорим детально:
- глубокая инженерия: как мы строили агентную систему, с какими проблемами в поведении столкнулись и как в итоге перестраивали логику работы агента;
- архитектура и тренды: дизайн инструментов и MCP-серверов. Обсудим современные подходы к построению агентов, включая progressive disclosure для context engineering;
- Evaluation и метрики: как мы ускорили Time-to-Market (TTM) вывода обновлений агентной системы за счет тестирования конечного результата в реальной среде и внедрения LLM-as-a-judge;
- продуктовая аналитика: как мы настроили офлайн-LLM-аналитику диалогов для улучшения пользовательского опыта.
Доклад принят в программу конференции
Мастер-класс «Собираем реал-тайм ИИ-агента для SIP/VoIP за 2 часа — от транка до живого звонка»
На мастер-классе разберем существующие технологии для создания VoIP с ИИ, создадим своего ИИ-агента для обработки звонков: от SIP-транка до живого диалога с эмпатичными ответами, а также рассмотрим варианты оптимизации, observability звонков, ускорения обработки и масштабирования решения.
Доклад принят в программу конференции
AI-инструменты для жизни (6)
ИИ в enterprise: на что вы тратите миллионы
Почему бюджеты на ИИ раздуваются быстрее, чем растет бизнес-эффект? И как это остановить до следующего бюджетного цикла?
Совместно с Высшей школой бизнеса мы провели исследование, посвященное экономической эффективности AI-агентов, и готовы поделиться результатами. Обсудим, сколько компаний действительно внедряет AI-агентов, что пугает тех, кто их еще не внедрил, и как увеличить шансы на успех AI-трансформации.
Доклад принят в программу конференции
Китайский для AI-ресерчера и разработчика
Владение китайским — это не «еще один язык», а способ читать модели так, как их читают создатели. Fun fact: китайский язык естественно оптимизирован под transformer-архитектуры.
Я хочу поделиться своим опытом изучения китайского технического языка, который помог реализовать несколько проектов в области Computer Vision и LLM с помощью последних Open Source-моделей, и что бы я порекомендовал сейчас самому себе, если пришлось прямо сейчас этот язык учить с нуля с учетом недавно появившихся технологий.
Доклад принят в программу конференции
Как мы разработали и внедрили систему проверки кода в научных статьях и дипломных работах
Я расскажу, как мы в ИТМО сделали систему для проверки соответствия между статьей и кодом к ней и внедрили ее в пайплайн проверки учебных работ.
Доклад принят в программу конференции
💻 Мастер-класс «Поймать и обезвредить: 14 Unit-тестов для RAG и решения через Knowledge Graphs»
Пожалуйста, обратите внимание: видеотрансляция и запись мастер-класса вестись не будут.
Векторный RAG лжет уверенно. Он путает, игнорирует даты документов и галлюцинирует там, где нужна строгая логика. Но как это отловить не «на глаз», а системно?
Вместо слайдов мы откроем IDE. За 40 минут мы прогоним 14 сценариев сбоя (RAG Failures) через тестовый стенд и покажем, как Knowledge Graphs (GraphRAG) решают то, что не под силу векторам.
Вы получите пошаговую инструкцию и готовый репозиторий, чтобы проверить свою систему:
- Test Suite: набор «неудобных» датасетов и Unit-тестов (Pytest + DeepEval), которые ломают классический поиск.
- Logic Engine: как внедрить детерминированную логику (Set Difference, Rule Checking) поверх графа для вопросов типа «Чего не хватает?» или «Совместимы ли компоненты?».
- Temporal & Structural Fixes: код для разрешения конфликтов версий документов и проблем инверсии связей.
Это практическое руководство: как превратить «магию» LLM в инженерную, тестируемую систему.
Доклад принят в программу конференции
Контент-маркетинг в эпоху ИИ: как мы делаем YouTube-ролики на 600+ тысяч просмотров
- Как мы потратили 1 000 000 ₽ на ютуб-продюсера и получили нулевой результат.
- Как мы используем ИИ на каждом этапе YouTube-контента: темы, сценарии, обложки, монтаж, описания, звук и рилсы.
- ИИ в исследовании ЦА и тем: как понять, что и для кого снимать. Промпты для анализа боли, конкурентов и трендов.
- Разбор кейса: ролики на 500–600 тыс. просмотров. Кейс нашего канала @SkobeevDigital (YouTube) и других каналов, которые ведем.
- Профит для бизнеса и монетизация: как получать лиды и сколько можно заработать на рекламе в канале.
- Работающие промпты: как писать сценарии с ИИ. Готовые промпты для развлекательных и экспертных роликов.
- Карта контент-завода: как масштабировать один ролик в 10 единиц контента. Гайды, статьи, соцсети, чек-листы — все из одного источника.
- Как создать под эти задачи ИИ-ботов и помощников.
- Что можно внедрить уже сегодня. Чек-лист: ИИ и боты под задачи YouTube.
Доклад принят в программу конференции
ML-анализ видео в Crowd, или Как решать задачу трекинга без явного таргета
Во многих областях разметки активно применяются генеративные модели ИИ. Однако в анализе видео такие модели пока уступают классическим алгоритмам компьютерного зрения — особенно когда у задачи нет явного целевого объекта для трекинга.
На примере кейса из Crowd(а) разберем устройство автоматизированного пайплайна для разметки видео и ключевые компоненты кастомного алгоритма трекинга. Кроме того, я рассмотрю «грабли», на которые мы наступили, и покажу, как нам удалось ускорить разметку видео с 7 часов до 30 минут.
Доклад принят в программу конференции
Резерв (1)
Мультимодальная модерация объявлений Авито
Модерация — это сложный, но интересный процесс. Объявления на Авито содержат не только описание и заголовок, но и изображения и дополнительные параметры. В этом докладе я расскажу про особо сложные кейсы модерации, когда при принятии решения необходимо учитывать сразу все составляющие.
Доклад принят в программу конференции