← Назад

Создано сегодня в 13:26

В СФ рассказали, какими должны быть стандарты по безопасной разработке систем ИИ

ит системный администратор кибербезопасность компьютер

Фото: Vladimir Andreev/ URA.RU/ Global Look Press

До конца 2025 года Федеральная служба по техническому и экспортному контролю (ФСТЭК) собирается представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ) в дополнение к стандарту по безопасной разработке программного обеспечения (ПО). Как пояснил первый  заместителя директора ФСТЭК Виталий Лютиков на форуме BIS-2025, речь идет о тех уязвимостях и угрозах, которые специфичны для ИИ, связанных с дата-центричностью, с моделями машинного обучения и прочими.

«Ведомости» пишут, что в 117-м приказе ФСТЭК, который вступает в силу с марта 2026 года и устанавливает новые требования к защите информации в государственных информационных системах, есть большой раздел, посвященный вопросам безопасности ИИ, моделей и датасетов, которые используются для обучения этих моделей, и потому есть большая необходимость в стандарте, который будет описывать конкретные меры, предназначенные для компаний, внедряющих ИИ в свои проекты.

Зампред Совета по развитию цифровой экономики при СФ, первый замглавы Комитета СФ по конституционному законодательству и госстроительству Артём Шейкин считает, что обеспечение безопасности в сфере искусственного интеллекта — это стратегическая необходимость. Поэтому требования, которые готовит ФСТЭК, должны быть обязательными для всех организаций, работающих с ИИ-технологиями. Здесь речь идёт не только о защите данных, но и о доверии общества к цифровым решениям, отметил парламентарий в разговоре с «СенатИнформ».

При этом Шейкин уверен, что всегда будут те, кто попытается искать обходные схемы. «Но именно для этого нужны чёткие стандарты и контроль со стороны государства. Когда правила понятны, едины для всех и подкреплены санкциями за нарушения, у бизнеса меньше возможностей игнорировать их», — отметил сенатор.

По его словам, важно соблюдать баланс: безопасность и ответственность не должны превращаться в барьер для инноваций и внедрения полезных решений. 

Сейчас крайне важно работать над формированием цивилизованного рынка. Для компаний выполнение стандартов станет гарантией качества и конкурентоспособности, а для граждан — дополнительной защитой от рисков, связанных с применением ИИ

Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству

Ранее сенатор сказал, что в ближайшие 2–3 года нейросети не перейдут на позицию «соавторов», но станут полноценными ассистентами в процессе программирования.

Наше издание писало, что рынок образования в сфере ИИ к концу года может достичь 5,6 млрд рублей, ввиду увеличения спроса на автоматизацию рутинных задач и использование ИИ для анализа больших данных.

Председатель СФ Валентина Матвиенко говорила, что сенаторы работают над совершенствованием законодательства в области ИИ, а эта тема является тонкой и деликатной как с этической, так и с юридической точки зрения.

Это интересно
  • НеИностранец - как живут иностранцы в России?
    Точки Роста – инновации в России. Новые производства и технологии.