https://ria.ru/20240301/moshenniki-1930555010.html
Эксперт раскрыл необычный способ обмана, применяемый мошенниками
Эксперт раскрыл необычный способ обмана, применяемый мошенниками - РИА Новости, 01.03.2024
Эксперт раскрыл необычный способ обмана, применяемый мошенниками
Телефонные мошенники в общении с потенциальной жертвой используют аудиосообщения со сгенерированным женским голосом и аватаркой симпатичной девушки, чтобы... РИА Новости, 01.03.2024
2024-03-01T17:30
2024-03-01T17:30
2024-03-01T17:38
технологии
россия
https://cdnn21.img.ria.ru/images/07e7/0c/0d/1915538022_266:544:2654:1887_1920x0_80_0_0_c2293ecb1ff1cfb3dd404d11140038ac.jpg
МОСКВА, 1 мар - РИА Новости. Телефонные мошенники в общении с потенциальной жертвой используют аудиосообщения со сгенерированным женским голосом и аватаркой симпатичной девушки, чтобы повысить свои шансы на успех, рассказал РИА Новости ведущий аналитик департамента Digital Risk Protection компании F.A.C.C.T. Евгений Егоров. "Злоумышленники используют сгенерированные записи в схеме FakeDate. Отправляют жертве для большей убедительности голосовые сообщения под видом привлекательной девушки", - сказал Егоров. По его словам, с начала года компания зафиксировала еще две новые схемы, в которых мошенники с помощью сервисов искусственного интеллекта подменяли свой голос на тот, от имени которого реализовывали сценарии. В одном - заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. В другом - выдавали себя за руководителей компаний и требовали связаться якобы с сотрудником службы безопасности, который просил перевести деньги на безопасный счет. Егоров объяснил, что мошенники заранее разными способами добывают аудиозапись человека, которую обрабатывали через сервисы ИИ. Получить образец голоса можно, например, в социальных сетях или видеохостингах, или записать телефонный разговор. По словам эксперта, киберпреступники активно исследуют и применяют возможности ИИ для автоматизации и повышения вероятности успеха атак. Кроме того, "модная тема" нейросетей может быть использована в качестве приманки в фишинговых атаках и мошеннических схемах.
https://ria.ru/20240228/moshennik-1930012787.html
https://ria.ru/20231228/moshenniki-1918597834.html
россия
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2024
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/07e7/0c/0d/1915538022_759:575:2508:1887_1920x0_80_0_0_e80b56437825d0a4641eb42ba0b71894.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, россия
Эксперт раскрыл необычный способ обмана, применяемый мошенниками
Эксперт: телефонные мошенники используют женские аватарки и нежные голоса
МОСКВА, 1 мар - РИА Новости. Телефонные мошенники в общении с потенциальной жертвой используют аудиосообщения со сгенерированным женским голосом и аватаркой симпатичной девушки, чтобы повысить свои шансы на успех, рассказал РИА Новости ведущий аналитик департамента Digital Risk Protection компании F.A.C.C.T. Евгений Егоров.
"Злоумышленники используют сгенерированные записи в схеме FakeDate. Отправляют жертве для большей убедительности голосовые сообщения под видом привлекательной девушки", - сказал Егоров.
По его словам, с начала года компания зафиксировала еще две новые схемы, в которых мошенники с помощью сервисов искусственного интеллекта подменяли свой голос на тот, от имени которого реализовывали сценарии. В одном - заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. В другом - выдавали себя за руководителей компаний и требовали связаться якобы с сотрудником службы безопасности, который просил перевести деньги на безопасный счет.
Егоров объяснил, что мошенники заранее разными способами добывают аудиозапись человека, которую обрабатывали через сервисы ИИ. Получить образец голоса можно, например, в социальных сетях или видеохостингах, или записать телефонный разговор.
По словам эксперта, киберпреступники активно исследуют и применяют возможности ИИ для автоматизации и повышения вероятности успеха атак. Кроме того, "модная тема" нейросетей может быть использована в качестве приманки в фишинговых атаках и мошеннических схемах.