Главное
Истории
Как спасались в холода?

Как спасались в холода?

Мужчина-антидепрессант

Мужчина-антидепрессант

Цены на масло

Цены на масло

Почему в СССР красили стены наполовину?

Почему в СССР красили стены наполовину?

Талисманы известных людей

Талисманы известных людей

Итоги выборов в США

Итоги выборов в США

Экранизация Преступления и наказания

Экранизация Преступления и наказания

Успех после 70

Успех после 70

Что происходит в жизни Глюкозы?

Что происходит в жизни Глюкозы?

Личная жизнь Дурова

Личная жизнь Дурова

Мошенники научились подделывать видеоизображения: как распознать обман

Сюжет: 

Эксклюзивы ВМ
Общество
Студентка Надежда Павлова всегда перезванивает родным, если на ее планшет приходят подозрительные сообщения, написанные якобы ее близкими людьми
Студентка Надежда Павлова всегда перезванивает родным, если на ее планшет приходят подозрительные сообщения, написанные якобы ее близкими людьми / Фото: Анна Малакмадзе / Вечерняя Москва

Центробанк России предупредил о новом, высокотехнологичном виде мошенничества — преступники научились подделывать даже видеоизображения. «Вечерняя Москва» выясняла подробности.

Схема такова: жертве приходит ролик с видеообращением якобы от родственника, коллеги или даже начальника с работы. Он просит, например, срочно сбросить деньги на определенный счет.

— Для создания дипфейка (поддельного изображения. — «Вечерняя Москва») достаточно нескольких качественных фотографий и записи голоса. Еще лучше, если есть видео: тогда искусственный интеллект можно научить воспроизводить мимику и движения, — поясняет «Вечерней Москве» эксперт по кибербезопасности Евгений Крапивников. — С помощью этой технологии можно подделать не только видео, но и любое изображение на экране: например, по видеосвязи общается жулик, а его собеседник видит и слышит знакомого человека. К примеру, свою маму, которая звонит с другого номера, потому что сломался или потерялся телефон.

Как пояснил эксперт, москвичи сами дают «исходники» для производства дипфейков:

— Люди снимают фото и видео, на которых не только они, но и их родственники. Все эти изображения потом находятся в свободном доступе — на страницах в социальных сетях. И вот мошенники, мониторя соцсети, видят, что кто-то красиво отдыхает на море или купил новую дорогую машину. Личные страницы вполне могут дать представление о состоятельности потенциальной жертвы, ее родственниках, близких. Затем изображения «скармливают» нейросети, и та выдает нужный ролик.

«Высший пилотаж» — это живой видеоразговор с жертвой.

— Понять, что вам звонит нейросеть, легко. Попросите собеседника повернуться в профиль. Можно воскликнуть: «Ой, а что там у тебя за спиной?» — советует Евгений Крапивников. — Большинство современных программ для создания дипфейков просто не работают, если их применять для замены или воспроизведения лиц, повернутых в профиль.

Например, нейросеть FAN (Face Alignment Network) очень хорошо работает для фронтальных граней лица, но не очень хорошо справляется с боковыми. Чтобы «слепить» фальшивое изображение в профиль, как правило, не хватает исходных материалов, ведь мы редко фотографируемся и делаем видео в профиль. В итоге подобное изображение становится скорее «догадкой» нейросети о том, как выглядит лицо человека, повернутое на 90 градусов. Если собеседник делает все, чтобы не поворачиваться, перед вами точно мошенник. Второй вариант определить жулика — не верить, что потерялся телефон, и позвонить маме на ее номер.

НАЖИВАЮТСЯ НА ВЫБОРАХ

Мошенники начали рассылать предложения пройти опрос о предстоящих выборах президента и получить за это 2500 рублей.

Суть схемы проста. Поступает звонок или сообщение в мессенджере от якобы представителя одной из политических партий. Они предлагают принять участие в опросе за деньги. Для этого нужно скачать фейковое мобильное приложение с поддельного магазина Google Play, в котором замаскирован Android-троян.

— При переходе по ссылке скачивается вирус, который дает мошенникам доступ ко всем входящим СМС, в том числе с кодом подтверждения банковского перевода, — поясняет генеральный директор ИT-компании Денис Калемберг.

ПРЯМАЯ РЕЧЬ

Василий Буров, соучредитель АНО «Информационная культура»:

— Сейчас вполне можно снять фильм с давно умершими Чарли Чаплином или Одри Хепберн. Для этого даже не нужен двойник-актер. Нужен только носитель — тот, кто будет осуществлять движение и «подаваться» на вход искусственному интеллекту, формирующему это изображение.

КСТАТИ

Российские разработчики создали программу, способную распознавать, пишет ли в чатах мошенник. Вычислив жулика, она отправляет уведомление, что сообщение небезопасно.

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.

  • 1) Нажмите на иконку поделиться Поделиться
  • 2) Нажмите “На экран «Домой»”

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.