Создано сегодня в 10:26
В СФ заявили, что использование ИИ правоохранителями нужно отрегулировать
Фото: Pogiba Alexandra/ news.ru/ Global Look Press
К 2030 году 90% преступлений будут раскрывать с помощью технологий на основе искусственного интеллекта (ИИ), пишут «Известия». Замглавы Совета по развитию цифровой экономики при СФ, первый зампред Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин в разговоре с «СенатИнформ» отметил, что такие технологии в правоохранительной сфере уже доказали эффективность.
Нейросети способны мгновенно анализировать огромные массивы данных, обнаруживать скрытые закономерности, предсказывать возможные места и время преступлений на основе статистики. ИИ умеет выявлять людей в толпе, распознавать лица, походку, голос человека. Сейчас такие технологии уже используют в правоохранительных органах как в России, так и в других государствах. В нашей стране прежде всего речь идёт об аналитике видеоматериалов, контроле за безопасностью на улицах. Также ИИ применяют для борьбы с киберпреступностью – мониторинга даркнета, анализа подозрительных банковских операций, поиска фишинговых ресурсов.
По словам сенатора Шейкина, ИИ очень полезен в работе правоохранительных органов, но при этом важно не переоценивать его возможности. Нейросети помогают найти, сопоставить, выделить подозрительные эпизоды, ускорить работу следствия и полиции, но не должны подменять собой профессиональную юридическую оценку и решение человека.
Артём Шейкин. Фото: Парламентский фотоархив/ Пресс-служба СФ
Раскрытие преступления — это не только техническая идентификация по камере, а полноценный процесс доказывания, проверки обстоятельств и соблюдения прав граждан. Поэтому ИИ в правоохранительной сфере уместен лишь как сильный вспомогательный инструмент, а не в качестве автономного субъекта принятия решений
Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству
Нормативное регулирование использования ИИ в борьбе с преступностью, безусловно, необходимо. Причём принципиально важен риск-ориентированный подход, отметил Артём Шейкин. Чем выше влияние ИИ на права граждан, обработку чувствительных данных и юридически значимые решения, тем строже должны быть требования к его применению. Если ИИ используется как вспомогательный аналитический инструмент, регулирование может быть более гибким. «Но в случаях, связанных с идентификацией личности, анализом поведения и решениями, затрагивающими права человека, необходимы обязательный контроль со стороны специалиста, прозрачность процедур, проверяемость результатов и понятная система ответственности», - подчеркнул сенатор. По его словам, именно такой подход позволит сохранить баланс между эффективностью технологий, законностью их применения и защитой прав граждан.
Как писал «СенатИнформ», большинство российских юристов (74%) выступают против передачи искусственному интеллекту (ИИ) права самостоятельно выносить судебные решения. В то же время большинство опрошенных в целом поддерживают внедрение ИИ в судебную систему: 42% относятся к этому положительно, ещё 40% — нейтрально.
Председатель Совета Федерации Валентина Матвиенко подчёркивала, что России нужны законы, направленные на борьбу с использованием ИИ в противоправных целях. Она отмечала, что развитие искусственного интеллекта неизбежно, но насильственно его внедрить нельзя. Нужна мотивация для того, чтобы ИИ получил широкое развитие, а появляется она только тогда, когда есть отдача от применения этих технологий.





