Принимаю условия соглашения и даю своё согласие на обработку персональных данных и cookies.
Согласен

Чего не видит Большой Брат. Колонка специалиста о бесполезности видеокамер, распознающих национальность

Леонид Стариков ясно-понятно
26 февраля 2025, 16:34
Фото: Александр Кряжев / РИА Новости; Анастасия Кеда, 66.RU
Власти Санкт-Петербурга собираются оснастить 8 тысяч камер на улицах специальными механизмами, которые позволят определять национальность людей и следить за мигрантами. Леонид Стариков, владелец компании «Недремлющее око», считает, что это невозможно и не нужно. Важнее учить искусственный интеллект распознавать универсальные сигналы тревоги и предотвращать ЧП.

Камеры уличного наблюдения с нейросетями — это мощный инструмент, но их возможности ограничены так же, как и у человеческого глаза. В Санкт-Петербурге предлагают оснастить систему видеонаблюдения «Безопасный город» нейросетью, которая якобы сможет определять этническую принадлежность людей на улице. Это громкое заявление, но стоит разобраться, действительно ли современные камеры способны на такое и какие реальные задачи они готовы решать.

У камер на улицах — свои границы возможностей

Нейросеть работает только с теми данными, которые получает от камеры. Если условия съемки плохие — изображение размытое, в кадре идет снег или дождь, густая тень или засветка, — человек не сможет разобрать, что происходит, и камера тоже.

Если лицо скрыто под капюшоном, если одежда сливается с фоном или яркий свет засвечивает фигуру, то никакая нейросеть не восстановит информацию, которой нет.

Точно так же нейросеть не понимает намерений. Она может определить, что человек поднял руки, но не поймет, приветствует он кого-то или сдается полиции. Камера может зафиксировать, что человек присел возле машины, но не разберет, чинил он колесо или пытался снять чужие номера.

Это ключевая особенность, которую важно учитывать при обсуждении возможностей видеонаблюдения. Камеры не знают контекста и не делают самостоятельных выводов — они лишь выделяют события, на которые должен обратить внимание оператор.

Можно ли определить этническую принадлежность по камерам?

Некоторые расовые признаки действительно можно зафиксировать. Нейросеть способна отличить темнокожего человека от светлокожего, увидеть европейские и азиатские черты лица.

Но если говорить об этнической принадлежности внутри одной расы, то тут у нейросетей нет точных алгоритмов.

Скажем, отделить представителя одного кавказского народа от другого невозможно. Камеры не смогут отличить японца от китайца, татарина от башкира, армянина от грузина.

Да и в современных мегаполисах, где у многих людей смешанные корни, этническая классификация по внешности становится бессмысленной.

Самое главное — даже если бы такая система могла работать, ее практическая ценность остается под вопросом. Что должно происходить после того, как система якобы определила этнос человека? Его начнут отслеживать? Проводить дополнительные проверки? Это не только неэтично, но и не имеет реального смысла.

Что действительно могут камеры с нейросетями?

Вместо попыток анализировать этнос, технологии сегодня решают реальные задачи безопасности.

  • Распознают лица по базам данных. Если у государства есть база фотографий граждан (например, из паспортов и водительских удостоверений), нейросеть способна находить конкретного человека на видеозаписях. Это не миф — подобные системы уже используются, например, в Белоруссии.
  • Распознают номера автомобилей. Если номерной знак читаемый и чистый, система без проблем его зафиксирует. По этой же логике самокатам в городах начали присваивать номера: камеры смогут отслеживать их передвижение, а GPS-датчики позволят определить, кто пользовался устройством в конкретный момент.
  • Фиксируют подозрительное поведение. Камеры могут обращать внимание операторов на аномальные ситуации.

Например:

  • человек долго сидит на земле зимой;
  • кто-то присел у машины и находится там продолжительное время;
  • машина стоит на обочине дольше, чем положено.

Такие события — не доказательство преступления, но могут помочь предотвратить инциденты, если оператор своевременно на них отреагирует.

Нейросети анализируют поведение объектов и прогнозируют их действия

Помимо фиксации событий, нейросети позволяют камерам видеонаблюдения отслеживать поведение объектов в кадре и прогнозировать их действия. Например, система может анализировать перемещения людей и транспортных средств, выделяя подозрительные или аномальные паттерны.

Автомобили:

  • Если машина неожиданно останавливается поперек трассы, это может указывать на ДТП.
  • Если автомобиль паркуется в неположенном месте, система уведомит оператора о вероятном нарушении.
  • Если машина стоит слишком долго на запрещенной территории — например возле стратегического объекта, возможно, это повод для проверки.

Люди:

  • Если на улице внезапно собирается большая толпа, скорее всего, это митинг, массовое мероприятие или начало беспорядков.
  • Камеры фиксируют агрессивные выкрики и звуки конфликта — стоит обратить внимание на возможное нарушение порядка.
  • Если кто-то внезапно выбегает на проезжую часть, система зафиксирует потенциальную опасность.

Общественные инциденты:

  • Камеры могут фиксировать коммунальные аварии, например разлив воды, пар от пробитой теплотрассы, обрушение конструкций.
  • При пожаре система способна быстро распознать источник задымления и передать сигнал о ЧП.

Во всех этих случаях камера не принимает решение, но помогает человеку вовремя обратить внимание на потенциальную проблему.

Почему важен контекст и как можно применять технологии лучше?

Видеонаблюдение работает не само по себе, а в связке с оперативными службами. Поэтому важно не просто фиксировать факты, а правильно их интерпретировать.

Один из возможных сценариев, который мог бы действительно помочь людям, — ввести универсальные тревожные жесты. Например, если принять, что поднятые над головой руки — это сигнал тревоги, то камеры смогут автоматически распознавать такие случаи и передавать информацию в центр мониторинга.

Такой подход уже работает в авиации. На борту самолета, если пассажир поднимает обе руки, это может быть сигналом для экипажа, что ему угрожает опасность. Перенос такого принципа на уличные камеры был бы более полезным, чем попытки классифицировать людей по внешности.

Не надо требовать магии от технологий

Нейросети в системах видеонаблюдения не всемогущи. Как мы уже говорили, камеры не могут видеть сквозь дождь и снег, не понимают намерений людей и не способны точно определять этнос.

Зато они хорошо работают с распознаванием лиц и номеров, помогают фиксировать подозрительные ситуации, прогнозируют потенциальные угрозы и позволяют оперативно реагировать на ЧП.

Поэтому технологии должны решать реальные задачи безопасности. Распознавать универсальные сигналы тревоги и эффективно помогать в предотвращении происшествий важнее. Нейросети надо обучать этому, а не пытаться классифицировать людей по расовому или этническому признаку.