В ЕС договорились о правилах для ИИ: предусмотрены миллионные штрафы, Эстония разрабатывает собственную стратегию
Депутаты стран Европейского союза достигли соглашения касательно постановления об искусственном интеллекте (ИИ), целью которого является обеспечение безопасного и ответственного использования ИИ. За нарушение требований грозят миллионные штрафы.
„Речь идет о новаторском нормативно-правовом акте, который регулирует развитие систем ИИ, их вывод на рынок, а также предложение и использование“, – отметил присяжный адвокат адвокатского бюро Hedman Тоомас Сеппель в пресс-релизе бюро.
За нарушение требований постановления об искусственном интеллекте предусмотрены миллионные штрафы. Например, нарушителю требований в будущем может грозить штраф в размере до 7,5 млн евро или 1,5% от годового оборота компании. В случае крупных глобальных предприятий штрафы могут достигать 35 млн евро и составлять до 7% мирового оборота.
„Суммы штрафов зависят как от серьезности нарушения, так и от размера и оборота предприятия. Такой сильный механизм контроля важен для предотвращения нарушений и обеспечения эффективной защиты прав людей, способствуя ответственному развитию и использованию искусственного интеллекта“, – пояснил Сеппель.
Для людей очень важна связанная с постановлением прозрачность: при общении с людьми системы ИИ должны сообщать пользователям, что они общаются с машиной. Это касается, например, автоматической идентификации на пограничном контроле, чат-ботов в службе поддержки клиентов, а также Snapchat и ChatGPT.
Кроме того, люди, использующие искусственно созданные дипфейки (на англ.яз. deepfake), должны указывать, что контент генерируется искусственным интеллектом. Штрафы для частных лиц не предусмотрены, но это не исключает ответственности пользователя дипфейка на общих основаниях, например, в случае клеветы.
Постановление впервые вводит концепцию искусственного интеллекта общего назначения (GPAI). Наиболее известными из них в настоящее время являются ChatGPT, Bard и DALL-E, то есть те системы, которые могут выполнять множество различных задач, таких как генерация текстов, изображений или звуков. В будущем системы GPAI должны соответствовать требованиям прозрачности.
Постановление также регулирует более мощные модели GPAI, которые могут вызвать системный риск. Наиболее известные из них – OpenAI (GPT-3, GPT-4), DeepMind (AlphaGo, AlphaFold) и IBM (IBM Watson), к ним будут применяться дополнительные обязательства.
Системы ИИ с низким, высоким и запрещенным уровнями риска
Присяжный адвокат пояснил, что постановление классифицирует системы искусственного интеллекта на три категории, в зависимости от потенциального риска: низкий, высокий и запрещенный.
На разрешенные системы ИИ распространяются общие требования прозрачности, такие как составление технической документации, соблюдение требований авторского права и раскрытие сводных данных, используемых во время обучения. Дополнительные обязательства и запреты налагаются на генерирующие системы с большим воздействием и системы с запрещенным риском.
На системы ИИ с высоким риском возлагаются обширные обязательства, такие как создание системы управления рисками, подготовка и обновление технической документации, соблюдение требований прозрачности и обеспечение контроля со стороны человека. Примерами систем искусственного интеллекта с высоким уровнем риска являются системы, используемые в жизненно важной инфраструктуре, медицинских устройствах, а также в правоохранительных органах и правосудии.
Евросоюз достиг консенсуса о том, что системы искусственного интеллекта, представляющие угрозу основным правам человека, будут классифицироваться как системы с запрещенным уровнем риска, а их разработка и использование в Евросоюзе будут запрещены. К запрещенным системам относятся, например, биометрические системы и базы данных распознавания лиц, использующие конфиденциальную информацию. Например, запрещено распознавание эмоций на рабочем месте и в учебных заведениях, а также системы, манипулирующие бессознательным поведением людей и использующие их уязвимые места.
Эстония разрабатывает свою стратегию искусственного интеллекта
Постановление об искусственном интеллекте теперь ожидает дальнейшего уточнения и принятия законодателями ЕС. Эстония в настоящее время разрабатывает собственную стратегию искусственного интеллекта, основанную на постановлении ЕС, которая предоставляет инструкции и создает стандарты, а также более систематически рассматривает способы обеспечения надежности ИИ и снижения рисков как при разработке, так и при использовании ИИ.
Ожидается, что постановление об искусственном интеллекте будет одобрено на уровне комиссий в ближайшие две недели. Затем оно будет вынесено на пленарное голосование ЕС в Европейском парламенте, которое, как ожидается, состоится в апреле.
Адвокатское бюро Hedman консультирует предприятия сферы креативной промышленности и технологий по вопросам ИТ-права, защиты данных и интеллектуальной собственности, a также в сфере защиты данных и вопросах налогообложения.
Читайте RusDelfi там, где вам удобно. Подписывайтесь на нас в Facebook, Telegram, Instagram и даже в TikTok.