← Назад

Создано 27.12.2023

В Минцифры придумывают способы распознавания дипфейков

кибер безопасность хакеры

Фото: freepik

Борьба с дипфейками вышла на государственный уровень ввиду высоких рисков, связанных с отсутствием на сегодняшний день реального механизма контроля за использованием и распространением такой информации. Об этом «СенатИнформ» сказал зампред Совета по развитию цифровой экономики при СФ, член Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин.

Как сообщают «Известия», ранее премьер-министр РФ Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ).

В беседе с нашим изданием сенатор Шейкин заметил, что с развитием технологий ИИ количество недостоверных данных, созданных с его помощью, возрастает с каждым днём в геометрической прогрессии.

Причём, по мнению парламентария, они представляют серьёзную проблему, поскольку дипфейки могут быть выполнены с большой степенью детализации, без видимых признаков манипуляции, что затрудняет их обнаружение и опровержение.

«В современном мире, где технологии ИИ и видеомонтаж становятся всё более доступными и простыми, их использование создаёт возможность мошенникам распространения ложной информации. Поддельные видео, фотографии и аудиозаписи могут создаваться с помощью современных алгоритмов машинного обучения, делая их максимально реалистичными», — сказал законодатель. Применение дипфейков может также привести к манипуляциям сознанием людей и общественным мнением, добавил Шейкин.

По его словам, с помощью инструментов ИИ мошенники могут незаметно внедряться в корпоративные сети, выдавая себя за руководителей компании и получая доступ к финансовым средствам или конфиденциальной информации.

«Ещё один способ мошенничества, — рассказал сенатор, — целевой фишинг с помощью генерации ИИ. Сотрудник банка получает электронное письмо от руководителя с просьбой перевести деньги на счёт в другой стране, а затем получает подтверждение этого звонком смоделированным голосом руководителя. Такие атаки сложно обнаружить, так как они не содержат подозрительных ссылок или вложений».

В политическом мире технология дипфейка может быть использована как оружие против отдельных деятелей и даже целых политических партий с целью манипулирования общественным мнением, влиять на выборы или, в некоторых случаях, даже на фондовый рынок.

Возможность создания контента с помощью нейросетей почти без затрат, высокая скорость генерации таких видео, фотографий и текстов являются серьёзной угрозой, особенно в контексте нынешней геополитической ситуации, требующей эффективных методов выявления и пресечения использования ИИ в преступных целях

Артём Шейкин, член Комитета СФ по конституционному законодательству и госстроительству

Ранее сенатор говорил, что закрепление понятия «дипфейк» в российском правовом поле позволит более эффективно бороться с мошенничеством, связанным с использованием нейросетей для создания поддельных аудио-, видео и фотоматериалов.

Это интересно
  • НеИностранец - как живут иностранцы в России?