AiConf

Подводные камни при выбора ИИ провайдера: как не ошибиться.

Продуктизация AI-решений

Программный комитет ещё не принял решения по этому докладу

Целевая аудитория

разработчики сервисов, которые встраивают ИИ инструменты сторонних поставщиков, юристы, продакт менеджеры, менеджеры проектов, комплаенс-менеджеры

Тезисы

Выбор ИИ-провайдера - это стратегический риск, а не техническая закупка.
Главные опасности нового сервиса скрываются не только в пользовательском соглашении, но и в условиях приобретаемого плана, технической документации и даже дисклеймере. Негативными факторами могут оказаться: право провайдера использовать ваши данные, отсутствие гарантий на результат и полный отказ от ответственности за ошибки модели.
Техническая непрозрачность создаёт зависимость и не позволяет аудировать решения «чёрного ящика». Скрытые бизнес-риски могут включать непредсказуемую стоимость и привести к ненадёжности выбранного ИИ сервиса.
Для того чтобы избежать этих подводных камней, необходимо проводить юридический Due Diligence ИИ-провайдера и до работы с ним составлять карту рисков, а также обучать всех вовлеченных в его эксплуатацию специалистов осознанному и безопасному использованию ИИ технологий.
Поэтому в конечному итоге при выборе ИИ провайдера цель выбрать не самую продвинутую технологию, а найти наиболее управляемого и прозрачного партнёра.

Маслова Оксана

ИП Маслова

Юрист-практик, руководитель, эксперт в области IT/FinTech, комплаенс,
AI Governance и международного права.
Мой профессиональный путь — это более 12 лет на стыке права, технологий и международного бизнеса. Сегодня я сфокусирована на одной из самых динамичных и критически важных областей: управлении Искусственным Интеллектом (AI Governance). Моя миссия - помочь компаниям внедрять и использовать ИИ не только эффективно, но и безопасно, ответственно и в полном соответствии с регулированием.
Мой опыт в AI Governance — это практика, а не теория:
В международной EdTech компании я с нуля запустила систему AI-комплаенса: разработала внутренние политики использования ИИ, создала документацию для разграничения ответственности с пользователями и внедрила процессы для безопасной интеграции ИИ-сервисов в рабочие потоки. Это позволило компании масштабно использовать технологии, минимизируя юридические и репутационные риски.
Я ежедневно повышаю ИИ-грамотность команд: провожу обучение для сотрудников — от разработчиков до маркетологов — о том, как легально и этично работать с инструментами вроде ChatGPT и Midjourney, проводить Due Dililegence ИИ-провайдеров и оценивать риски генерируемого контента.
Моя экспертиза охватывает все ключевые аспекты: от правового анализа и соответствия (ЕС AI Act, отраслевые стандарты) и управления рисками жизненного цикла ИИ-моделей до защиты данных (ПДн/GDPR в ИИ-контурах) и оформления интеллектуальных прав на ИИ-разработки.
Мой профессиональный бэкграунд:
Руководила юридическими функциями в банке и IT-компании, выстраивая команды и процессы с нуля.
Сопровождала международную экспансию, работала с регуляторами (ЦБ РФ, ФТС) и внедряла системы автоматизации (LegalTech).
Постоянно учусь: прохожу курсы по AI & Law (Lund University), Copyright Law (UPenn) и другим профильным направлениям.
Вне работы нахожу баланс между юридической практикой и материнством, увлечена темой профессиональной трансформации и верю, что глубокую экспертизу можно успешно менять и масштабировать.
Готова делиться своим опытом как консультант и ментор, помогая бизнесу выстраивать надежную правовую инфраструктуру для работы с искусственным интеллектом.

Видео

Другие доклады секции

Продуктизация AI-решений