Рейтинг@Mail.ru
Kaspersky спрогнозировал атаки мошенников с помощью видеосвязи - РИА Новости, 24.01.2024
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Kaspersky спрогнозировал атаки мошенников с помощью видеосвязи

Kaspersky: мошенники смогут атаковать россиян через видеосвязь в мессенджерах

Камера телефона - РИА Новости, 1920, 24.01.2024
Читать ria.ru в
Дзен
МОСКВА, 24 янв — РИА Новости. Мошенники в перспективе могут подделывать не только голосовые сообщения, но и атаковать россиян в соцсетях в реальном времени через видеосвязь при помощи технологии дипфейков, заявил РИА Новости главный эксперт "Лаборатории Касперского" Сергей Голованов.
«

"Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. <...> Злоумышленники доберутся до этого через несколько лет", — сказал Голованов, добавив, что схема будет распространяться в мессенджерах.

Он отметил, что злоумышленники будут копировать аккаунты в мессенджерах и при звонке жертве не только генерировать голос, но и видеоизображение звонящего. Поскольку общение будет происходить в режиме реального времени, подозрений у жертвы может не возникнуть. Однако это перспективы не 2024 года, успокоил эксперт.
Голованов напомнил, что на текущий момент мошенники отправляют жертве голосовые сообщения в мессенджере от якобы знакомого или руководителя с просьбой перевести деньги, однако у этой схемы есть проблема — сгенерированные искусственным интеллектом сообщения "неадаптивные".
По его словам, жертва, которая слушает сообщения, понимает, что это сгенерированный голос. "Интонация, с которой идут все голосовые сообщения, роботизированна: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека", — пояснил Голованов.
В свою очередь, будущий мошеннический тренд будет сложно вычислить: "Старые схемы, например, "мама, переведи деньги, я в тюрьме", играют феерическими красками, и распознать, что это не тот человек, становится очень сложно". Эксперт считает, что единственный способ, благодаря которому это можно сделать, — проверка аккаунта. На слух же у жертвы распознать ИИ не получится.
Сбер - РИА Новости, 1920, 19.01.2024
Сбербанк предупредил об угрозе использования мошенниками дипфейков
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала