В ЕС после 36 часов переговоров достигли согласия по закону об искусственном интеллекте

Депутаты Европейского парламента, представители стран-членов и эксперты Европейской комиссии заключили политическое соглашение по закону об искусственном интеллекте (ИИ), который является первой попыткой ЕС урегулировать новую технологию.

Об этом, как пишет Европейская правда, сообщает Politico.

После более чем 36 часов продолжавшихся в течение трех дней переговоров представителям трех институтов Евросоюза удалось достичь согласия по таким спорным вопросам, как прогнозируемое применение, распознавание лиц и использование искусственного интеллекта правоохранительными органами.

Ожидается, что потребуется больше технической работы над текстом закона, чтобы усовершенствовать достигнутое политическое соглашение.

«ЕС становится первым континентом, который установил четкие правила использования ИИ», — заявил еврокомиссар по вопросам внутреннего рынка Тьерри Бретон.

«Закон о ИИ – это гораздо больше, чем сведение правил, это стартовая площадка для стартапов и исследователей из ЕС, которые возглавят мировую гонку ИИ», – добавил он.

Депутат Драгош Тудораш, один из содокладчиков закона о ИИ в Европарламенте, заявил: «Мы первые в мире, кто установил реальное регулирование для [ШИ] и для будущего цифрового мира, управляемого ИИ, направляя развитие и эволюцию этой технологии в направлении, ориентированном на человека «.

Как пишет AFP, решающее влияние на начало переговорного процесса оказало появление в конце прошлого года системы ChatGPT — генератора текста от калифорнийской компании OpenAI, способного в считанные секунды писать эссе, стихи или переводы.

Эта система, как и системы, способные создавать звуки или изображения, открыла миру огромный потенциал искусственного интеллекта, но и определенные риски. Например, распространение фейковых фотографий в социальных сетях показало опасность манипулирования общественным мнением.

В основе проекта ЕС лежит перечень правил, которые распространяются только на системы, которые считаются «высокорисковыми» и используются преимущественно в таких чувствительных областях, как критическая инфраструктура, образование, человеческие ресурсы, правоохранительные органы и т.д. На эти системы будет возложен ряд обязательств, таких как обеспечение человеческого контроля над машиной, составление технической документации или внедрение системы управления рисками.

Законодательство предусматривает введение особого надзора за системами искусственного интеллекта, взаимодействующими с человеком. Оно вынудит их информировать пользователя о том, что он взаимодействует с машиной.

Документ также предусматривает редкое применение запретов, касающихся преимущественно тех применений, которые противоречат европейским ценностям. В качестве примера, который не следует последовать, приводится Китай, где существуют системы оценки граждан, массового наблюдения или отдаленной биометрической идентификации людей в общественных местах. Что касается последнего пункта, то странам ЕС была предоставлена ​​свобода действий для определенных видов правоохранительной деятельности, таких как борьба с терроризмом.

Соглашение также предусматривает, что европейское законодательство будет оснащено мерами наблюдения и санкциями, а в Европейской комиссии будет создан Европейский офис по искусственному интеллекту. За наиболее серьезные правонарушения будут налагаться штрафы в размере до 7 процентов от оборота с нижним пределом в 35 миллионов евро.

Ранее Германия, Франция и Италия достигли соглашения о том, как в будущем нужно регулировать искусственный интеллект.

Перед этим Национальный центр кибербезопасности Британии заявил, что искусственный интеллект представляет угрозу для следующих парламентских выборов в стране, а кибератаки враждебных стран и их муртадов становится все труднее отслеживать.

Напомним, Великобритания, США, ЕС, Австралия и Китай согласились с тем, что искусственный интеллект представляет потенциально катастрофическую опасность для человечества, заключив первую международную декларацию, посвященную этой быстрорастущей технологии.

Источник