Евросоюз предложил ограничения для использования искусственного интеллекта
Европейская комиссия представила обширную нормативно-правовую базу по регулированию искусственного интеллекта, которая в случае принятия может глобально изменить развитие технологии.
Евросоюз предложил ограничения для использования искусственного интеллекта Виктория Сафронова
«Искусственный интеллект должен быть не самоцелью, а инструментом, который служит людям с конечной целью повышения их благосостояния, — говорится в проекте постановления Еврокомиссии. — Правила для искусственного интеллекта, распространенного на рынке Евросоюза или влияющего на граждан другим образом, должны ставить людей в центр. Люди должны доверять использованию технологий, знать о ее безопасности и соответствии закону, включая уважение основных прав»
В документе отмечается, что правила для искусственного интеллекта должны быть сбалансированными и не должны излишне ограничивать технологическое развитие или препятствовать этому процессу.
Еврокомиссия предложила ввести четырехуровневую систему, определяющую развитие искусственного интеллекта. Она может включать в себя маркировки минимального, ограниченного, высокого риска, а также риск, полную запрещенность. Речь идет о потенциальном причинении вреда общественному благу.
Приложения с высоким уровнем риска определяются как любые продукты, в которых искусственный интеллект «предназначен для использования в качестве компонента безопасности продукта» или же где ИИ сам является компонентом безопасности. В качестве примера приводит функцию предотвращения столкновений в транспортных средствах. В категорию высокого риска также предлагается включать приложения на основе ИИ, предназначенные для следующих сфер: критически важная инфраструктура, образование, юриспруденция/судебная система, найм сотрудников.
Приложение из этой категории могут поступать на рынок, но перед началом продаж они должны пройти соответствие требованиям — например, соблюдение правил Евросоюза при разработке на протяжении всего жизненного цикла продукта, строгие гарантии обеспечения конфиденциальности.
Абсолютный запрет накладывается на использование технологий, которые способны манипулировать поведением человека, не учитывая его свободную волю. Особенно это касается приложений, которые используют уязвимые группы — по признаку возраста, ограниченных физических или умственных возможностей.
Принятие закона может полностью наложить ограничения на использование в будущем полностью автономных роботов-хирургов, отмечает Engadget.
К приложениям с ограниченным риском относятся чат-боты на сайтах сервисов или содержащие дипфейк-контент. Создатель ИИ для таких приложений должен будет заранее сообщать пользователям, что они будут взаимодействовать с машиной, а не с другим человеком.
Для продуктов с минимальным риском — таких как ИИ в видеоиграх и в целом для подавляющего большинства приложений — правила не вводят какие-либо особые требования для выполнения перед выходом на рынок.
«Думаю, что европейцы, похоже, предвидят надзор — не знаю, будет ли перегибом сказать, что от колыбели до могилы, — говорит Engadget доктор Дженнифер Кинг, научный сотрудник Института искусственного интеллекта, ориентированного на человека, при Стэнфордском университете. — Но есть ощущение, что необходим постоянный мониторинг и оценка, особенно гибридных систем».
Нарушение, обход или игнорирование правил может повлечь за собой крупный штраф — например, в случае принятий правил за их несоблюдение нужно будет заплатить до 30 миллионов евро или 4% от годового дохода организации.
Comments are closed.