Правительство будет проверять ИИ на предмет угрозы нацбезопасности
Системы искусственного интеллекта, обученные на госданных, будут проверять «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном правительством паспорте федпроекта «Цифровое госуправление», который войдет в нацпроект «Экономика данных». С документом ознакомился «Коммерсантъ».
Правительство будет проверять ИИ на предмет угрозы нацбезопасности https://rb.ru/news/pravitelstvo-bude-nacbezopasnosti/
Автор: Михаил Зеленин https://rb.ru/author/mihail-zelenin/ Подписаться на RB.RU в Telegram
Для этого правительство планирует провести в 2025-2026 годах научно-исследовательские работы по определению принципов анализа моделей ИИ, а в 2027-2028 годах — внедрить первую версию соответствующего ПО. Проверки необходимы из-за планов использовать искусственный интеллект при принятии стратегических решений, указано в документе.
Выполнение задачи федпроекта поручено ФСБ, а на создание программ для контроля государственных нейросетей до 2030 года из федерального бюджета выделят более 8 млрд рублей. К 2030 году власти планируют получить пять моделей ИИ с подтверждением «допустимости безопасного использования».
В аппарате вице-премьера по цифровизации Дмитрия Григоренко газете сообщили, что нацпроект все еще находится на согласовании и до его утверждения обсуждать указанные в документе планы «преждевременно». В ФСБ от комментариев изданию отказались.
С 1 января 2024 года в России также будет применяться ГОСТ, который установит требования к защите данных при применении и разработке ИИ, сообщил изданию замглавы Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. По мнению эксперта, особого внимания требуют две категории данных — персональные и защищаемы. Госданные относятся ко второй, поэтому если «системы ИИ обучаются на них, то такую оценку проводить необходимо», подчеркнул Воронин.
Comments are closed.