← Назад

Создано сегодня в 10:56

В СФ поддержали возможность обучения нейросетей на госданных

нейросети ит айтишник работа на компьютере

Фото: Ingram Images/ Global Look Press

При обучении искусственного интеллекта (ИИ) на основе госданных важно обеспечить строгие правила доступа к такой информации и гарантировать защиту от утечек, сказал «СенатИнформ» замглавы Совета по развитию цифровой экономики при СФ, первый зампред Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин. 

В новой версии законопроекта о регулировании ИИ суверенным и национальным моделям предложили разрешить обучение на основе госданных, сообщил «Коммерсант». Но доступ к ним можно будет получить только после разрешения от ФСБ и ФСТЭК. Планируют создать реестр доверенных ИИ-моделей, которые признали достаточно надёжными, безопасными, прозрачными и этичными. Также предусматривается введение для операторов и владельцев ИИ ответственности за обеспечение информационной безопасности моделей.

Возможность обучать искусственный интеллект (ИИ) на госданных выглядит логичной, отметил сенатор Артём Шейкин. По его словам, без качественных и масштабных наборов сведений невозможно создавать действительно сильные модели, особенно для задач государственного управления, критической информационной инфраструктуры (КИИ), медицины, транспорта или финансового сектора.

Но здесь принципиально важно соблюсти баланс: такие данные могут использоваться только в строго регулируемом контуре, с понятным порядком допуска, разграничением доступа и обязательными мерами защиты. Сейчас именно такой подход и обсуждается

Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству

Парламентарий обратил внимание, что ключевой вопрос для обеспечения безопасности — не просто «дать или не дать доступ», а на каких условиях он будет предоставляться. Нужны строгая классификация данных, режимы обезличивания там, где это возможно, фиксирование всех операций, изолированные контуры обработки и понятная ответственность за нарушения. «Обучение на госданных возможно, но только при таком режиме, где риски утечек и несанкционированного использования заранее минимизируются», — подчеркнул Артём Шейкин.

Что касается идеи реестра доверенных ИИ-моделей, она также обоснована, особенно если речь идёт о системах, которые применяются в чувствительных сферах — на объектах КИИ, в госинформсистемах, а возможно, в перспективе и в отдельных сегментах финансового рынка. По словам Шейкина, здесь государству действительно важно понимать, какие модели используются, насколько они проверены и кто отвечает за их безопасность.

Также Артём Шейкин поддержал введение ответственности операторов и разработчиков ИИ за информационную безопасность моделей. Если компания выводит ИИ-сервис в оборот, она должна отвечать не только за его функциональность, но и за устойчивость, безопасность данных и последствия ненадлежащей защиты.

Ранее сенатор Иван Евстифеев заявил, что модели искусственного интеллекта, которые допущены к критической инфраструктуре, должны проходить строжайшую проверку безопасности.

Как писал «СенатИнформ», разработчики и издатели в рамках нового законопроекта о регулировании ИИ обсуждают право на использование контента СМИ для обучения нейросетей. Сейчас в документе предусмотрен бесплатный доступ к материалам, поэтому в компаниях настаивают на сохранении авторского права на материалы за СМИ, а также заключении лицензионных договоров.

Спикер СФ Валентина Матвиенко отмечала, что развитие искусственного интеллекта неизбежно, но насильственно его внедрить нельзя. Нужна мотивация для того, чтобы ИИ получил широкое распространение, а появляется она только тогда, когда есть отдача от применения этих технологий.

Это интересно
  • Точки Роста – инновации в России. Новые производства и технологии.
    НеИностранец - как живут иностранцы в России?