Искусственный интеллект начнет раскрывать 90% преступлений к 2030 году

Сегодня, 08:16
Фото: Антон Буценко, 66.RU
Технологии учатся распознавать лица, походку, голос, находить преступников в даркнете и прогнозировать место и время правонарушений. В ближайшие годы это может изменить работу полиции, но требует осторожности: ошибка алгоритма может стоить человеку свободы.

Сфера безопасности становится одним из самых востребованных направлений ИИ-видеоаналитики, сообщил «Известиям» генеральный директор компании NtechLab Алексей Паламарчук. Российские и зарубежные регионы рассматривают ИИ как инструмент для повышения безопасности, поскольку присутствие видеоаналитики в городской среде сдерживает потенциальных нарушителей, добавил он. По прогнозу Паламарчука, через четыре года искусственный интеллект будет помогать раскрывать до 90% преступлений в городах.

ИИ интересен полиции способностью мгновенно анализировать огромные массивы данных, фактически заменяя труд тысяч людей, объяснил руководитель управления цифровой криминалистики и киберразведки Angara MTDR Никита Леокумович. По его словам, нейросети уже учатся выявлять скрытые закономерности, прогнозировать место и время преступлений, распознавать лица, походку, голос и дипфейки в реальном времени.

Параллельно развиваются системы анализа цифрового следа для борьбы с киберпреступностью, рассказала ведущий инженер-аналитик «Газинформсервиса» Ирина Меженева. Они мониторят даркнет, автоматически ищут фишинговые ресурсы и отслеживают подозрительные банковские операции, эти технологии уже вошли в повседневную работу правоохранителей.

Эксперты считают главным плюсом ИИ снижение преступности. Начальник отдела по информационной безопасности компании «Код Безопасности» Алексей Коробченко сообщил, что в Москве с 2012 по 2025 год число краж и угонов автомобилей сократилось на 97%, и в этом есть вклад систем на базе ИИ. Среди ключевых плюсов технологий он и Леокумович назвали высокую скорость и точность анализа данных, возможность предотвращать преступления заранее и экономить ресурсы полиции. Меженева с ними согласилась и добавила, что алгоритмы работают быстро и не зависят от личной симпатии или антипатии, но напомнила: ошибка ИИ в идентификации подозреваемого может стоить человеку свободы.

По словам Меженевой, будущее таких систем зависит не только от самих алгоритмов, но и от понятных законов и контроля. Она считает принципиально важным, чтобы каждое решение ИИ проверял человек, иначе возрастает риск автоматизированной судебной ошибки. Нейросети остаются «черными ящиками», и есть риск решений, основанных на статистических сбоях, а не на реальных доказательствах, добавила она.

Олеся Иванова
журналист

Читайте также