Принимаю условия соглашения и даю своё согласие на обработку персональных данных и cookies.

Структура Роскомнадзора заказала разработку сервиса, который выявляет ложь по записям выступлений

2 ноября 2022, 09:40
Структура Роскомнадзора заказала разработку сервиса, который выявляет ложь по записям выступлений
Фото: Анна Коваленко, архив 66.RU
Систему, которая работает на основе искусственного интеллекта, уже проверили на американских политиках.

Специалисты Национального центра когнитивных разработок (НЦКР) ИТМО создают для подведомственного Роскомнадзору Главного радиочастотного центра (ГРЧЦ) сервис Expert. Искусственный интеллект будет проверять видеозаписи выступлений на предмет лжи и манипуляций. Об этом сообщает «Коммерсантъ» со ссылкой на источники, информацию подтвердили в ведомстве.

Прототип еще в июле представили Роскомнадзору, и продукт заинтересовал его представителей. «Присутствовал глава Роскомнадзора Андрей Липов, которого решение заинтересовало. Он попросил как можно скорее передать его ведомству на тестирование», — поделился источник.

Сервис может анализировать видеозаписи, выявляя ложь, а также распознавая дипфейки (deepfake — технология синтезирования медиаданных, когда лицо одного человека на фото или видео заменяется лицом другого), пояснил глава ГРЧЦ Александр Федотов. При анализе видео или аудио Expert также оценивает уверенность, уровень агрессии внутренней и внешней, противоречивость высказываний.

Пока система работает только с медиаданными на английском языке, самом распространенном в мире. Руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов пояснил, что английский выбран как самый распространенный язык. По его словам, «доработка системы для получения текста из речи на русском языке стоит в ближайших планах».

Систему предварительно протестировали перед выборами в Сенат США, которые состоятся 8 ноября этого года. «Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе», — рассказал Басов. По его словам, в заявлениях трех кандидатов система обнаружила скрытую агрессию, а одного из них удалось уличить во лжи.

Собеседник издания на IT-рынке рассказал, что у VisionLabs есть экспертиза в разработке детекторов дипфейков лиц, и они результативны: точность работы составляет 94–100%. Но сейчас качество работы нейросети оценивается в плоскости теории вероятности. «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу», — уверен он.