Принимаю условия соглашения и даю своё согласие на обработку персональных данных и cookies.
Согласен

В российском законодательстве появится понятие «дипфейк»

23 июня 2023, 08:42
Фото: скрин 66.RU
Ожидается, что соответствующий законопроект Госдума примет в осеннюю сессию. Депутаты опасаются современных возможностей нейросетей, способных менять на видео изображение лица и голос человека. Они считают, что мошенники будут пользоваться этой технологией.

Ответственным за работу над законопроектом стал глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн.

«Сейчас все чаще используются нейросети для создания так называемых дипфейков — контента с реалистичной подменой фото, видео и аудиоматериалов. Отличить их от достоверного изображения становится все труднее», — сказал он «Известиям».

Зампред комитета Олег Матвейчев говорит, что сегодня люди чаще стали использовать нейросеть в первую очередь для развлечения, поместив фото в интересные декорации, чтобы увидеть себя или близких в новом образе. Но, уверен он, в течение трех лет этот механизм разрастется и его начнут использовать мошенники или те, кто хочет обмануть систему. К примеру, учащиеся уже начали писать выпускные дипломы с помощью нейросети, напомнил Олег Матвейчев.

«Когда люди будут, к примеру, загружать в программу свои голоса, то мошенники потом смогут звонить их близким с имитацией их же голоса. Или даже сама нейросеть будет вести разговор. То есть вам, к примеру, позвонит ваш родственник, вы его прекрасно узнаете, он будет так же шутить, использовать те же слова-паразиты. Вы его не отличите. А потом он скажет — пришли мне 20 тыс. рублей срочно», — подчеркнул депутат.

Кирилл Смоленцев