AiConf

Мастер-класс «Однажды в AIвуде... как взламывать и защищать AI-приложения»

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D

Доклад принят в программу конференции

Мнение Программного комитета о докладе

Мастер-класс раскрывает секреты тестирования и защиты AI-систем от зловредов. На примере работы с такими LLM как Mistral, OpenAI, DeepSeek, GigaChat, YandexGPTи др. Вы узнаете методики проникновения, освоите создание эффективной защиты своих AI-решений, а также изучите инструменты для оценки рисков.

Целевая аудитория

Разработчики ИИ-приложений, архитекторы ML-систем, специалисты по кибербезопасности, работающие с генеративными моделями

Тезисы

Системы на базе LLM помогают писать код, анализировать финансы, нанимать сотрудников. Тем временем хакеры научились атаковать ИИ-системы: обходить инструкции, генерировать вредоносный контент, воровать данные или просто ронять сервисы. Вместе с участниками мастер-класса мы не только изучим громкие кейсы, но и вместе разберём, как взломать и защить ИИ-систему для найма сотрудников. Рассмотрим популярные техники промпт-инъекций и джейлбрейкинга и не забудем про проблемы классической информационной безопасности.

Тимур Низамов

Независимый исследователь

Разрабатывал AI-решения в EdTech и столкнулся с проблемами безопасности, так что теперь исследую атаки на модели ML и разрабатываю фреймворк динамического тестирования genAI-систем LLAMATOR в лаборатории Безопасности ИИ Университета ИТМО.

AI Security Red-Teamer.
Специалист в области информационной безопасности.
Работал как в классическом ИБ, так и в AI Security.

Видео

Подготовительное задание
Участникам желательно иметь с собой ноутбук с возможностью поднятия Docker-контейнера тестового стенда, ключи для подключения к API LLM (OpenAI, DeepSeek, GigaChat, YandexGPT, etc)

Другие доклады секции

GenAI & Perception: генерация и распознавание текстов, музыки, изображений, видео и 3D