EU AI Act: риск-ориентированный подход к регулированию ИИ
:::caution[Правовая оговорка и актуальность] Данный материал носит образовательный характер и не является юридической консультацией. EU AI Act — развивающееся законодательство. Фреймворк, описанный ниже, основан на принципах, заложенных в регулировании, а не на конкретных формулировках статей, которые могут уточняться. Актуальность: март 2026. Для применения проверьте текущую версию на eur-lex.europa.eu. :::
Введение
EU AI Act (Регламент ЕС об искусственном интеллекте) — первый в мире всеобъемлющий закон, регулирующий разработку и использование AI-систем. Его ключевая идея — risk-based approach (риск-ориентированный подход): чем выше риск AI-системы для здоровья, безопасности и прав человека, тем строже требования.
Для специалистов по Data Governance EU AI Act критически важен, потому что многие требования напрямую касаются данных: качество обучающих выборок, документация моделей, мониторинг предвзятости.
Четыре уровня риска
EU AI Act классифицирует AI-системы по четырём уровням риска. Каждый уровень определяет объём требований к разработчику и оператору системы.
Unacceptable Risk (запрещённый риск)
AI-системы, представляющие неприемлемую угрозу правам человека, запрещены:
- Social scoring — оценка граждан на основе социального поведения (по аналогии с системой социального кредита)
- Манипулятивный ИИ — системы, использующие подсознательные техники для манипуляции поведением
- Массовое распознавание лиц — биометрическая идентификация в реальном времени в общественных местах (с исключениями для правоохранительных органов)
- Эксплуатация уязвимостей — AI, эксплуатирующий возраст, инвалидность или социально-экономическое положение
High Risk (высокий риск)
AI-системы с значительным влиянием на здоровье, безопасность и фундаментальные права. К ним предъявляются максимальные требования:
- Кредитный скоринг и страховое ценообразование — решения о финансовых продуктах
- Медицинская диагностика и лечение — AI-ассистенты врачей
- Рекрутинг и управление персоналом — фильтрация резюме, оценка производительности
- Образование — автоматизированная оценка, допуск к обучению
- Критическая инфраструктура — управление энергосетями, водоснабжением, транспортом
- Правоохранительная деятельность — предиктивная полиция, оценка рисков рецидива
Сценарий: BioGenesis Pharma (БиоДженезис Фарма)
BioGenesis разрабатывает AI-модель для предварительного скрининга пациентов в клинических исследованиях. Модель анализирует медицинские записи и определяет, подходит ли пациент для участия в исследовании нового препарата.
Классификация по EU AI Act: High Risk — модель влияет на доступ пациентов к медицинским исследованиям (здоровье и безопасность).
Требования:
- Risk Management System — документированная оценка рисков модели
- Data Governance — высокое качество обучающих данных (полнота, точность, репрезентативность)
- Technical Documentation — полная документация модели (Model Card)
- Record-Keeping — автоматическое логирование всех решений модели
- Transparency — информирование пациентов об использовании AI
- Human Oversight — врач принимает финальное решение о включении пациента
Limited Risk (ограниченный риск)
AI-системы с обязательствами по прозрачности — пользователи должны знать, что взаимодействуют с ИИ:
- Чат-боты и виртуальные ассистенты
- Системы генерации контента (deepfake, AI-текст)
- Рекомендательные системы
Minimal Risk (минимальный риск)
Большинство AI-систем не требуют специальных мер: спам-фильтры, игровой ИИ, автозаполнение текста. Добровольные кодексы поведения приветствуются.
Проверка знанийBioGenesis создаёт AI-систему для анализа МРТ-снимков, помогающую радиологам обнаруживать опухоли. К какому уровню риска относится эта система по EU AI Act и почему?
Требования к данным в EU AI Act
EU AI Act содержит принципы, определяющие требования к данным, используемым для обучения high-risk AI-систем. Эти принципы устанавливают прямую связь между Data Governance и AI compliance.
Принцип управления данными для high-risk AI (основанный на статье 10):
Обучающие, валидационные и тестовые наборы данных для high-risk AI-систем должны соответствовать принципам надлежащего управления данными:
- Релевантность и репрезентативность — данные должны адекватно отражать контекст использования AI-системы
- Полнота и отсутствие ошибок — данные должны быть максимально свободны от ошибок и пропусков
- Учёт специфических характеристик — данные должны учитывать географические, поведенческие и функциональные особенности
- Обнаружение и коррекция предвзятости — организация должна выявлять и устранять bias в обучающих данных
Принцип управления рисками (основанный на статье 9):
Для high-risk AI-систем организация должна установить, внедрить и поддерживать систему управления рисками, включающую:
- Идентификацию и оценку известных и предсказуемых рисков
- Оценку рисков, возникающих при использовании системы по назначению и при обоснованно предсказуемом неправильном использовании
- Принятие мер по управлению рисками на основе принципа пропорциональности
Принцип прозрачности (основанный на статье 13):
High-risk AI-системы должны быть спроектированы так, чтобы их функционирование было достаточно прозрачным для операторов. Пользователи должны иметь возможность интерпретировать результаты системы и использовать их надлежащим образом.
Влияние на Data Governance программы
Для BioGenesis:
BioGenesis уже имеет Data Governance для клинических данных (152-ФЗ compliance, Data Quality для CRF forms). EU AI Act добавляет:
- Bias Detection — проверка, что AI-модель скрининга не дискриминирует по полу, возрасту или этничности
- Model Card — формальная документация: training data demographics, performance by subgroup, limitations
- Risk Assessment — формальная оценка рисков AI-модели с учётом high-risk классификации
- Human Oversight — процесс, в котором врач-исследователь принимает финальное решение
Timeline внедрения EU AI Act
Ключевые даты (принцип поэтапного внедрения):
| Период | Событие |
|---|---|
| 2024 | Принятие регламента |
| 6 месяцев после принятия | Запрет AI-систем с неприемлемым риском |
| 12 месяцев | Требования к AI-системам общего назначения (GPAI) |
| 24 месяца | Полное применение для high-risk AI-систем |
| 36 месяцев | Требования для определённых категорий high-risk AI |
Принцип пропорциональности: требования масштабируются с уровнем риска. Minimal-risk системы не несут регуляторной нагрузки, high-risk — максимальную.
Проверка знанийFinSecure использует Credit Scoring Model для определения кредитных лимитов. Какой уровень риска по EU AI Act и какие конкретные Data Governance практики потребуются для compliance?
Итоги
- EU AI Act — первый всеобъемлющий закон о регулировании ИИ, основанный на risk-based approach
- 4 уровня риска: Unacceptable (запрещено), High (максимальные требования), Limited (прозрачность), Minimal (без требований)
- High-risk AI включает кредитный скоринг, медицинскую диагностику, рекрутинг, критическую инфраструктуру
- Требования к данным (принцип статьи 10): репрезентативность, полнота, обнаружение bias, документация
- Data Governance — фундамент AI compliance: существующие практики (Quality, Classification, Lineage) покрывают часть требований; AI Governance добавляет bias detection, Model Card, fairness monitoring
- Принцип пропорциональности: требования масштабируются с уровнем риска
В следующем уроке мы перейдём к практике: Bias Detection и Fairness Metrics — количественные методы обнаружения и измерения предвзятости в AI-системах.
Проверьте понимание
Закончили урок?
Отметьте его как пройденный, чтобы отслеживать свой прогресс
Войдите чтобы оценить урок