Создано сегодня в 13:26
В СФ рассказали, какими должны быть стандарты по безопасной разработке систем ИИ

Фото: Vladimir Andreev/ URA.RU/ Global Look Press
До конца 2025 года Федеральная служба по техническому и экспортному контролю (ФСТЭК) собирается представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ) в дополнение к стандарту по безопасной разработке программного обеспечения (ПО). Как пояснил первый заместителя директора ФСТЭК Виталий Лютиков на форуме BIS-2025, речь идет о тех уязвимостях и угрозах, которые специфичны для ИИ, связанных с дата-центричностью, с моделями машинного обучения и прочими.
«Ведомости» пишут, что в 117-м приказе ФСТЭК, который вступает в силу с марта 2026 года и устанавливает новые требования к защите информации в государственных информационных системах, есть большой раздел, посвященный вопросам безопасности ИИ, моделей и датасетов, которые используются для обучения этих моделей, и потому есть большая необходимость в стандарте, который будет описывать конкретные меры, предназначенные для компаний, внедряющих ИИ в свои проекты.
Зампред Совета по развитию цифровой экономики при СФ, первый замглавы Комитета СФ по конституционному законодательству и госстроительству Артём Шейкин считает, что обеспечение безопасности в сфере искусственного интеллекта — это стратегическая необходимость. Поэтому требования, которые готовит ФСТЭК, должны быть обязательными для всех организаций, работающих с ИИ-технологиями. Здесь речь идёт не только о защите данных, но и о доверии общества к цифровым решениям, отметил парламентарий в разговоре с «СенатИнформ».
При этом Шейкин уверен, что всегда будут те, кто попытается искать обходные схемы. «Но именно для этого нужны чёткие стандарты и контроль со стороны государства. Когда правила понятны, едины для всех и подкреплены санкциями за нарушения, у бизнеса меньше возможностей игнорировать их», — отметил сенатор.
По его словам, важно соблюдать баланс: безопасность и ответственность не должны превращаться в барьер для инноваций и внедрения полезных решений.

Артём Шейкин. Фото: Парламентский фотоархив/ Пресс-служба СФ
Сейчас крайне важно работать над формированием цивилизованного рынка. Для компаний выполнение стандартов станет гарантией качества и конкурентоспособности, а для граждан — дополнительной защитой от рисков, связанных с применением ИИ
Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству
Ранее сенатор сказал, что в ближайшие 2–3 года нейросети не перейдут на позицию «соавторов», но станут полноценными ассистентами в процессе программирования.
Наше издание писало, что рынок образования в сфере ИИ к концу года может достичь 5,6 млрд рублей, ввиду увеличения спроса на автоматизацию рутинных задач и использование ИИ для анализа больших данных.
Председатель СФ Валентина Матвиенко говорила, что сенаторы работают над совершенствованием законодательства в области ИИ, а эта тема является тонкой и деликатной как с этической, так и с юридической точки зрения.