AiConf

PEFT: как дообучать большие языковые модели на своих данных эффективно

Обработка естественного языка

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

Датасайнтисты, а так же разработчики которым интересна тематика LLM

Тезисы

Главная тема моего доклада - дообучение больших языковых моделей на кастомных данных. Вы точно сталкивались с этой проблемой, когда модели из коробки плохо знали предполагаемую сферу применения, или напрмиер когда вы хотели разработать чат бота с усиленными знаниями в доменной области, но модель без дообучения сильно галюционировала. Ну и самый распространенный пример применения это уменьшение галюцинаций модели, повышение точности формата вывода и генерации ответов.
Есть несколько решений вышеперечисленных проблем, но мы сегодня разберем файнтьюнинг, а именно эффективный файнтьюнинг. Я сделаю обзор существующих методов PEFT (Parameter-Efficient Fine-Tuning), а так же расскажу какие из этих методов дали лучшие показатели в наших прикладных задачах c большими языковыми моделями

Data Scientist c опытом работы в разных областях: от анализа временных рядов и computer vision до больших дата-инженерных highload-проектов.
Также имеет солидный математический бэкграунд в области функционального анализа и операторных алгебр — научные статьи и выступления на конференциях.
На данный момент работает в компании Raft и занимается исследованиями и внедрением LLM-моделей в продакшн, о чем ей бы очень хотелось рассказать на этой конференции.

Raft

Raft специализируется на разработке приложений на основе генеративного ИИ, применяя такие технологии, как YandexGPT-2, ChatGTP и Llama-2. Занимаются созданием решений для защиты приложений на генеративном ИИ от потенциальных угроз и разрабатывают свои продукты. Главный продукт — AudioInsights. Этот инструмент предназначен для анализа качества обслуживания в продажах и клиентской поддержке. Ежемесячно он обрабатывает сотни тысяч диалогов в таких сферах, как автобизнес, финтех и медицина.

Видео

Другие доклады секции

Обработка естественного языка