Россиян предупредили о схеме мошенничества с дипфейками
Мошенники все чаще используют новые технологии в схемах обмана россиян, в частности они применяют дипфейки. Об этом напомнил член Комитета Госдумы по информационной политике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин.
По его словам, современный искусственный интеллект позволяет с высокой точностью скопировать внешность, голос и мимику конкретного человека.
— Это открывает злоумышленникам возможность создавать убедительные видеообращения от имени публичных фигур, коллег, руководителей или даже родственников потенциальной жертвы, — пояснил депутат.
Злоумышленники часто используют рассылку роликов о «социальных компенсациях», где якобы знаменитость предлагает перейти по ссылке и ввести персональные данные. Все выглядит очень достоверно, поэтому люди ведутся на обман.
Немкин объяснил, как отличить дипфейк и обезопасить себя. Во время видеозвонка можно попросить собеседника поднять руку или назвать точное время. ИИ пока не может воспроизводить такие действия, из-за чего появляются задержки, неестественные движения и сбои.
Также важно обращать внимание на мимику и интонацию. Даже самые продвинутые дипфейки еще не научились идеально передавать движения губ, паузы и интонации. Эксперт напомнил, что не стоит доверять никаким роликам и ссылкам, где требуют срочности.
— Лучше перепроверить информацию по другим каналам связи, позвонить напрямую предполагаемому отправителю или обратиться в официальную организацию, – заключил парламентарий в беседе с Life.ru.
В пресс-службе МВД рассказали, что мошенники начали активно применять искусственный интеллект для совершения преступлений, в частности, создавая видео с дипфейками родственников или друзей жертв.
Эксперт цифровой экономики Рустам Рафиков рассказал «Вечерней Москве», в чем преимущества и опасность технологии.