Новости и комментарии свободного порта Владивосток
+12
°
C
Макс.:+8
Мин.:+6
Вт
Чт
Пт
Сб

«За чистую монету». Россиян предупредили о новом виде мошенничества

Рубрика: Криминал
13.08.2019

Эксперты выявили новый способ интернет-мошенничества, при котором злоумышленники используют фейковые видео с изображением знаменитостей для похищения денег. Об этом сообщили в компании «Инфосистема Джет» (специализируется на защите информации).

Отмечается, что в последнее время в интернете появилось относительно новое явление deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий deep learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. «Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь, открывает широкие возможности для разного рода мошенников и провокаторов», — говорится в сообщении.

В пример приводится недавняя провокация в соцсети Facebook, где злоумышленники использовали образ актера и телеведущего Дмитрия Нагиева. В «своем» обращении фейк Нагиева обещал пользователям машину Audi A6 или 1,5 млн руб. за переход на сайт и следование инструкциям, через которые мошенники получают прибыль.

— При нажатии пользователь попадает на портал со сгенерированным именем домена, сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических организаций. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей, — пояснили в «Инфосистеме Джет».

Специалист по нейронным сетям IT-компании «Инфосистемы Джет» Анна Олейникова добавила, что deep fake является крайне серьезной угрозой и спектр зловредного применения подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике.

— Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта (ИИ) для противодействия таким угрозам информационной безопасности как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий, — заключила эксперт.

Фото Юрия МАЛЬЦЕВА