ЕС принимает первый закон о защите от рисков искусственного интеллекта. Главной угрозой считают не вымирание человека
Подпишитесь на нашу рассылку ”Контекст”: она поможет вам разобраться в событиях.
Автор фото, Reuters
Евросоюз первым в мире принимает закон, который будет регулировать развитие систем искусственного интеллекта (ИИ) и защищать от них граждан. В среду за законопроект проголосовал Европарламент. Это не конец процесса: три ветви власти ЕС – Комиссия, Парламент и Совет – должны будут согласовать окончательный вариант закона, его вступление в силу ожидается не ранее 2025 года.
В законе системы ИИ разделены на группы по степеням риска, который они несут для европейских граждан и потребителей, и для каждой группы введены свои ограничения и меры контроля.
Совсем запрещены будут, например, системы, созданные для того, чтобы влиять на подсознание людей, а также системы биометрического распознавания, работающие в режиме реального времени.
Системы, создающие контент – такие, как ChatGPT – должны будут, в частности, четко маркировать свою продукцию и не выдавать ее за творчество живых людей.
"Депутаты Европарламента хотят гарантировать, чтобы системы ИИ контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды", – объясняла пресс-служба Европарламента в мае, по ходу подготовки законопроекта.
В дебатах, которые прошли 13 июня, депутаты Европарламента больше всего внимания обратили на пункты о системах распознавания лиц. В проекте предлагается разрешить применение таких систем только "постфактум" (а не в режиме реального времени), только для поиска преступников, террористов и пропавших людей и только по решению суда.
Уверенное большинство евродепутатов – за такое решение, но небольшое меньшинство призывает совсем запретить системы распознавания лиц.
От этого меньшинства в дебатах выступил, в частности, Патрик Брайер – единственный в Европарламенте представитель Пиратской партии Германии.
"Мы открываем ящик Пандоры, мы создаем тотальное полицейское государство, как в Китае", – заявил Брайер (цитата по синхронному переводу).
Автор фото, Reuters
Немецкий "пират" заявил, что системы распознавания лиц ошибаются в 99% случаев, и это ведет к задержаниям невиновных людей.
"Требование о санкции суда, предложенное жесткими консерваторами – это чистая формальность, дымовая завеса для прикрытия массовой слежки […] Нельзя делать нормой культуру недоверия и становиться на сторону авторитарных режимов, которые применяют ИИ для подавления гражданского общества", – заявил Брайер перед дебатами.
Его многочисленные оппоненты возражали с трибуны Европарламента, что требовать полного запрета систем распознавания наивно, что они очень полезны в поиске террористов или, например, пропавших детей, и что сравнение с Китаем некорректно, поскольку в Европе правоохранительные органы и суды реально защищают права граждан.
Дискриминация
По мнению заместительницы председателя Еврокомиссии Маргрете Вестагер, отвечающей за антимонопольную политику, одна из самых насущных проблем, связанная с развитием искусственного интеллекта, – это дискриминация.
В эксклюзивном интервью Би-би-си Вестагер заявила, что более актуальной, по сравнению с вымиранием человечества в стиле "Терминатора", проблемой является потенциал ИИ по усилению предвзятости или дискриминации. По ее словам, этому способствует огромный объем данных, получаемых из интернета и используемых для обучения моделей и инструментов.
Пропустить Подкаст и продолжить чтение.Подкаст
Что это было?
Мы быстро, просто и понятно объясняем, что случилось, почему это важно и что будет дальше.
эпизоды
Конец истории Подкаст
Вестагер заявила Би-би-си, что регулирование ИИ необходимо для противодействия самым большим рискам, которые несет новая технология.
По ее словам, это имеет ключевое значение в тех случаях, когда искусственный интеллект используется для принятия решений, могущих повлиять на способность человека добывать средства к существованию, например, на получение ипотечного кредита.
"Вероятно, [риск вымирания] может существовать, но по-моему, вероятность этого довольно мала. Я думаю, что риски ИИ больше связаны с тем, что люди будут подвергаться дискриминации, их не будут воспринимать такими, какие они есть, – сказала она. – Если банк использует ИИ для решения вопроса о том, можете ли вы получить ипотечный кредит, или если это социальные службы вашего муниципалитета, то хочется быть уверенным, что вы не подвергаетесь дискриминации из-за вашего пола, цвета кожи или места жительства".
Поскольку ИИ продолжает быстро развиваться, при выработке новых правил нужно проявлять прагматизм, считает Вестагер.
"Лучше получить, скажем, 80% сейчас, чем 100% никогда, поэтому давайте начнем, а когда научимся – вернемся к этому вопросу и скорректируем правила", – сказала она.
По ее мнению, риск того, что ИИ может быть использован для влияния на следующие выборы, "определенно существует".
Группы риска
В Законе об ИИ, который центральные европейские органы разрабатывали два года – и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 – системы искусственного интеллекта разделены на четыре группы: группа "неприемлемого риска", группа "высокого риска", "генерирующие" системы и группа "ограниченного риска".
В группу "неприемлемого риска" зачислены:
Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда.
В группу "высокого риска" попали
Все эти системы ИИ будут оцениваться до их внедрения и по ходу применения и регистрироваться в специальной базе данных ЕС.
Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут
Все прочие системы ИИ включены в группу "низкого риска", от них требуется лишь быть достаточно открытыми – чтобы пользователь знал, что имеет дело с ИИ, и имел достаточно информации, чтобы принять обоснованное решение, пользоваться ли им дальше.
Источник: www.bbc.com
Сообщение ЕС принимает первый закон о защите от рисков искусственного интеллекта. Главной угрозой считают не вымирание человека появились сначала на ФОКУС ВНИМАНИЯ.
Comments are closed.