AiConf

Наш путь в Machine Unlearning: От теории к практике

AI-инструменты для жизни

Python
Machine Learning
ML
Безопасность

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

Data scientists и ML-инженеры

Тезисы

Со взрывным ростом GenAI мы всё чаще сталкиваемся с ситуацией, когда модель знает слишком много. Утечки персональных данных, нарушение авторских прав и токсичный контент создают риски, с которыми уже нельзя бороться простыми системными промптами. При этом полное переобучение модели для удаления одного факта — это слишком долго и дорого.

В этом докладе мы разберем концепцию Machine Unlearning — набор методов, позволяющих точечно «стирать» информацию из весов модели. Мы перейдем от теории к практике: разберем существующие инструменты, поделимся опытом того, как мы проводим процесс разобучения и расчета метрик, а также продемонстрируем результаты наших экспериментов и представим наше собственное OpenSource-решение, основанное на форке проекта OpenUnlearning.

Dara Scientist в компании Raft. Занимается как исследованиями, так и решением различных бизнес-задач в области NLP.

Видео

Другие доклады секции

AI-инструменты для жизни