Студентка Надежда Павлова всегда перезванивает родным, если на ее планшет приходят подозрительные сообщения, написанные якобы ее близкими людьми / Фото: Анна Малакмадзе / Вечерняя Москва

Мошенники научились подделывать видеоизображения: как распознать обман

Общество

Центробанк России предупредил о новом, высокотехнологичном виде мошенничества — преступники научились подделывать даже видеоизображения. «Вечерняя Москва» выясняла подробности.

Схема такова: жертве приходит ролик с видеообращением якобы от родственника, коллеги или даже начальника с работы. Он просит, например, срочно сбросить деньги на определенный счет.

— Для создания дипфейка (поддельного изображения. — «Вечерняя Москва») достаточно нескольких качественных фотографий и записи голоса. Еще лучше, если есть видео: тогда искусственный интеллект можно научить воспроизводить мимику и движения, — поясняет «Вечерней Москве» эксперт по кибербезопасности Евгений Крапивников. — С помощью этой технологии можно подделать не только видео, но и любое изображение на экране: например, по видеосвязи общается жулик, а его собеседник видит и слышит знакомого человека. К примеру, свою маму, которая звонит с другого номера, потому что сломался или потерялся телефон.

Как пояснил эксперт, москвичи сами дают «исходники» для производства дипфейков:

— Люди снимают фото и видео, на которых не только они, но и их родственники. Все эти изображения потом находятся в свободном доступе — на страницах в социальных сетях. И вот мошенники, мониторя соцсети, видят, что кто-то красиво отдыхает на море или купил новую дорогую машину. Личные страницы вполне могут дать представление о состоятельности потенциальной жертвы, ее родственниках, близких. Затем изображения «скармливают» нейросети, и та выдает нужный ролик.

«Высший пилотаж» — это живой видеоразговор с жертвой.

— Понять, что вам звонит нейросеть, легко. Попросите собеседника повернуться в профиль. Можно воскликнуть: «Ой, а что там у тебя за спиной?» — советует Евгений Крапивников. — Большинство современных программ для создания дипфейков просто не работают, если их применять для замены или воспроизведения лиц, повернутых в профиль.

Например, нейросеть FAN (Face Alignment Network) очень хорошо работает для фронтальных граней лица, но не очень хорошо справляется с боковыми. Чтобы «слепить» фальшивое изображение в профиль, как правило, не хватает исходных материалов, ведь мы редко фотографируемся и делаем видео в профиль. В итоге подобное изображение становится скорее «догадкой» нейросети о том, как выглядит лицо человека, повернутое на 90 градусов. Если собеседник делает все, чтобы не поворачиваться, перед вами точно мошенник. Второй вариант определить жулика — не верить, что потерялся телефон, и позвонить маме на ее номер.

НАЖИВАЮТСЯ НА ВЫБОРАХ

Мошенники начали рассылать предложения пройти опрос о предстоящих выборах президента и получить за это 2500 рублей.

Суть схемы проста. Поступает звонок или сообщение в мессенджере от якобы представителя одной из политических партий. Они предлагают принять участие в опросе за деньги. Для этого нужно скачать фейковое мобильное приложение с поддельного магазина Google Play, в котором замаскирован Android-троян.

— При переходе по ссылке скачивается вирус, который дает мошенникам доступ ко всем входящим СМС, в том числе с кодом подтверждения банковского перевода, — поясняет генеральный директор ИT-компании Денис Калемберг.

ПРЯМАЯ РЕЧЬ

Василий Буров, соучредитель АНО «Информационная культура»:

— Сейчас вполне можно снять фильм с давно умершими Чарли Чаплином или Одри Хепберн. Для этого даже не нужен двойник-актер. Нужен только носитель — тот, кто будет осуществлять движение и «подаваться» на вход искусственному интеллекту, формирующему это изображение.

КСТАТИ

Российские разработчики создали программу, способную распознавать, пишет ли в чатах мошенник. Вычислив жулика, она отправляет уведомление, что сообщение небезопасно.

amp-next-page separator