Цветовая схема:
C C C C
Шрифт
Arial Times New Roman
Размер шрифта
A A A
Кернинг
1 2 3
Изображения:

Новости

Россиян предупредили, на что будут способны мошенники в перспективе

24.01.2024

Количество просмотров: 111

Мошенники в перспективе могут подделывать не только голосовые сообщения, но и атаковать россиян в соцсетях в реальном времени через видеосвязь при помощи технологии дипфейков, заявил РИА Новости главный эксперт "Лаборатории Касперского" Сергей Голованов. 

"Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет… Злоумышленники доберутся до этого через несколько лет", — поделился Голованов, добавив, что схема будет распространяться в мессенджерах.

Он отметил, что злоумышленники будут копировать аккаунты в мессенджерах и при звонке жертве не только генерировать голос, но и видеоизображение звонящего. Поскольку общение будет происходить в режиме реального времени, подозрений у жертвы может не возникнуть. Однако это перспективы не 2024 года, успокоил эксперт.

Голованов напомнил, что на текущий момент мошенники отправляют жертве голосовые сообщение в мессенджере от якобы знакомого или руководителя с просьбой перевести деньги, однако у этой схемы есть проблема — сгенерированные искусственным интеллектом сообщения "не адаптивные".

По его словам, жертва, которая слушает сообщения, понимает, что это сгенерированный голос. "Интонация, с которой идут все голосовые сообщения, роботизированна: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека", — пояснил Голованов.

В свою очередь, будущий мошеннический тренд будет сложно вычислить: "Старые схемы, например, "мама, переведи деньги, я в тюрьме", играют феерическими красками, и распознать, что это не тот человек, становится очень сложно". Эксперт считает, что единственный способ, благодаря которому это можно сделать — проверка аккаунта. На слух же у жертвы распознать ИИ не получится.

Источник: Агентство экономической информации "ПРАЙМ"

Изображение размещено из открытых источников