Европейский парламент одобрил всеобъемлющее законодательство по регулированию искусственного интеллекта, спустя почти три года после того, как были впервые предложены проекты правил. В декабре чиновники достигли соглашения о развитии ИИ. В среду депутаты парламента одобрили Закон об ИИ 523 голосами "за" и 46 "против". Воздержались 49 человек.
ЕС заявляет, что правила направлены на "защиту основных прав, демократии, верховенства закона и экологической устойчивости от высокорискового ИИ, одновременно стимулируя инновации и утверждая Европу в качестве лидера в этой области". Закон определяет обязательства для приложений ИИ на основе потенциальных рисков и воздействия.
Законодательство еще не стало законом. Оно все еще подлежит проверке, а Европейский совет должен официально утвердить его. Но Закон об ИИ, скорее всего, вступит в силу до конца законодательного периода, перед следующими парламентскими выборами в начале июня.
Большинство положений вступят в силу через 24 месяца после принятия, но ограничения на запрещенные приложения будут действовать через шесть месяцев. Будут запрещены "биометрические системы категоризации, основанные на чувствительных характеристиках", а также "нецелевой скрейпинг" изображений лиц с видеозаписей камер видеонаблюдения и из интернета для создания баз данных распознавания лиц. Деятельность Clearview AI подпадет под эту категорию.
Другие приложения, которые будут запрещены, включают социальные очки, распознавание эмоций в школах и на рабочих местах, а также "ИИ, который манипулирует поведением человека или эксплуатирует уязвимости людей". Некоторые аспекты прогнозирующей полицейской деятельности будут запрещены, то есть когда она полностью основана на оценке чьих-либо характеристик (например, выводе об их сексуальной ориентации или политических взглядах) или профилировании. Хотя Закон об ИИ в целом запрещает использование правоохранительными органами систем биометрической идентификации, это будет разрешено в определенных обстоятельствах с предварительного разрешения, например, для помощи в поиске пропавшего человека или предотвращения теракта.
Приложения, которые считаются высокорисковыми, включая использование ИИ в правоохранительных органах и здравоохранении, подчиняются определенным условиям. Они не должны дискриминировать и должны соблюдать правила конфиденциальности. Разработчики также должны показать, что системы прозрачны, безопасны и объяснимы для пользователей. Что касается систем ИИ, которые ЕС считает низкорисковыми (например, спам-фильтры), разработчики все равно должны информировать пользователей о том, что они взаимодействуют с контентом, созданным ИИ.
Закон также содержит некоторые правила в отношении генеративного ИИ и манипулируемых медиа. Дипфейки и любые другие изображения, видео и аудио, созданные ИИ, должны быть четко помечены. Модели ИИ также должны соблюдать законы об авторском праве. "Правообладатели могут решить зарезервировать свои права на свои произведения или другие объекты, чтобы предотвратить интеллектуальный анализ текста и данных, если это не делается в целях научных исследований", – говорится в тексте Закона об ИИ. "Если право отказаться было прямо зарезервировано надлежащим образом, поставщики моделей ИИ общего назначения должны получить разрешение правообладателей, если они хотят выполнить интеллектуальный анализ текста и данных по таким произведениям". Однако модели ИИ, созданные исключительно для исследований, разработки и прототипирования, освобождаются от ответственности.
Самые мощные модели ИИ общего назначения и генеративные модели (обученные с использованием общей вычислительной мощности более 10^25 FLOPS) считаются имеющими системные риски в соответствии с правилами. Этот порог может со временем корректироваться, но считается, что в эту категорию попадают GPT-4 от OpenAI и Gemini от DeepMind.
Поставщики таких моделей должны оценивать и снижать риски, сообщать о серьезных инцидентах, предоставлять данные о потреблении энергии своими системами, обеспечивать соответствие стандартам кибербезопасности и проводить современные тесты и оценки моделей.
Как и в случае с другими правилами ЕС, направленными на технологии, штрафы за нарушение положений Закона об ИИ могут быть высокими. Компании, нарушающие правила, будут подвергаться штрафам в размере до 35 миллионов евро (51,6 миллиона долларов) или до семи процентов от их глобальной годовой прибыли, в зависимости от того, что больше.
Закон об ИИ применяется к любой модели, работающей в ЕС, поэтому поставщики ИИ из США должны будут соблюдать их, по крайней мере, в Европе. Сэм Альтман, генеральный директор OpenAI, создателя ChatGPT, предположил в мае прошлого года, что его компания может уйти из Европы, если Закон об ИИ будет принят, но позже сказал, что у компании нет планов делать это.
Для обеспечения соблюдения закона каждая страна создаст свой собственный надзорный орган по ИИ, а Европейская комиссия создаст Управление по ИИ. Оно разработает методы оценки моделей и мониторинга рисков в моделях общего назначения. Поставщикам моделей общего назначения, которые считаются несущими системные риски, будет предложено работать с управлением для разработки кодексов поведения.