Постановление ИИ вступило в силу: запрещены системы, нарушающие основные права человека

В четверг, 1 августа, вступило в силу постановление Европейского союза об искусственном интеллекте (ИИ) – первый в мире всеобъемлющий нормативно-правовой акт, регулирующий применение ИИ. Цель постановления – обеспечить надежность решений искусственного интеллекта, разработанных и используемых в ЕС, а также обеспечить защиту основных прав человека.
Постановление призвано создать единый внутренний рынок искусственного интеллекта в Евросоюзе, который будет способствовать внедрению ИИ и поможет создать среду, поддерживающую инновации и инвестиции, сообщила пресс-служба представительства Европейской комиссии в Эстонии.
В новом нормативно-правовом акте установлена направленная на долгосрочную перспективу трактовка ИИ, основанная на безопасности продукции и подходе, базирующемся на оценке рисков.
Большинство систем искусственного интеллекта, таких как системы рекомендаций на основе ИИ и спам-фильтры, попадают в эту категорию. В постановлении нет отдельных обязательств для этих систем, поскольку возникающий риск для прав и безопасности граждан тут минимален. Однако предприниматели могут добровольно вводить дополнительные руководства к действию.
Системы искусственного интеллекта, такие как чат-боты, должны четко сообщать пользователю, что он взаимодействует с машиной. Определенный контент, созданный искусственным интеллектом, включая дипфейки, должен быть помечен таковым, а пользователи должны быть проинформированы об использовании систем биометрической категоризации или распознавания эмоций. Кроме того, поставщики услуг должны разрабатывать системы таким образом, чтобы синтетический аудио-, видео-, текстовый или графический контент маркировался в машиночитаемом формате и мог идентифицироваться как искусственно созданный или обработанный.
Системы ИИ с высоким уровнем риска должны соответствовать строгим требованиям, включая системы снижения риска, высокое качество наборов данных, ведение журнала активности, подробную документацию, четкую информацию о пользователях, человеческий контроль и особенно высокую надежность, точность и кибербезопасность. Например, высокому риску подвергаются системы ИИ, используемые при подборе работников, оценке ходатайств о кредитах и управлении автономными роботами.
Системы искусственного интеллекта, которые явно угрожают основным правам людей, будут запрещены. Это системы или приложения, которые влияют на поведение людей и подавляют их свободную волю – например, говорящие игрушки, которые побуждают несовершеннолетних к опасному поведению, системы социальных баллов и определенные системы упреждающего наблюдения. Кроме того, запрещены некоторые виды использования биометрических систем, такие как системы распознавания эмоций на рабочем месте и некоторые приложения для классификации людей, а также биометрическая идентификация в реальном времени для правоохранительных целей в общественных местах (за строго ограниченными исключениями).
Отдельные положения регламентируют использование так называемых моделей искусственного интеллекта общего назначения – например, в генераторах текста и других подобных приложениях, распространение которых стремительно растет.
Страны ЕС должны до 2 августа 2025 года назначить национальные компетентные органы, которые будут контролировать применение правовых норм, касающихся систем искусственного интеллекта, и осуществлять надзор за рынком. На уровне ЕС основным таким органом является Европейское управление по искусственному интеллекту, задача которого – обеспечивать соблюдение правовых положений о моделях ИИ общего назначения.
Штрафы за нарушение правил о запрещенных приложениях ИИ могут достигать 7% мирового годового дохода компании. Меньшие штрафы предусмотрены за нарушение иных обязательств (до 3%) и за предоставление недостоверной информации (до 1,5%).
Редактор: Ольга Звягинцева




















