PEFT: как дообучать большие языковые модели на своих данных эффективно
Программный комитет ещё не принял решения по этому докладу
Целевая аудитория
Тезисы
Главная тема моего доклада - дообучение больших языковых моделей на кастомных данных. Вы точно сталкивались с этой проблемой, когда модели из коробки плохо знали предполагаемую сферу применения, или напрмиер когда вы хотели разработать чат бота с усиленными знаниями в доменной области, но модель без дообучения сильно галюционировала. Ну и самый распространенный пример применения это уменьшение галюцинаций модели, повышение точности формата вывода и генерации ответов.
Есть несколько решений вышеперечисленных проблем, но мы сегодня разберем файнтьюнинг, а именно эффективный файнтьюнинг. Я сделаю обзор существующих методов PEFT (Parameter-Efficient Fine-Tuning), а так же расскажу какие из этих методов дали лучшие показатели в наших прикладных задачах c большими языковыми моделями
Data Scientist c опытом работы в разных областях: от анализа временных рядов и computer vision до больших дата-инженерных highload-проектов.
Также имеет солидный математический бэкграунд в области функционального анализа и операторных алгебр — научные статьи и выступления на конференциях.
На данный момент работает в компании Raft и занимается исследованиями и внедрением LLM-моделей в продакшн, о чем ей бы очень хотелось рассказать на этой конференции.
Raft
Видео
Другие доклады секции
Обработка естественного языка