Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

Эксперты предупредили об опасности фейковых видео с лицами знаменитостей

CC0 / StockSnap / Ноутбук
Ноутбук
Ноутбук. Архивное фото
МОСКВА, 6 авг - РИА Новости. В интернете появились фейковые видео с наложением лиц и голосов известных людей, с помощью которых мошенники похищают средства, рассказали РИА Новости в компании "Инфосистемы Джет" (работает в сфере системной интеграции, защиты информации).
"Последнее время на просторах интернета появилось относительно новое явление deep fake - это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов", - рассказали в компании.
Эксперты компании обнаружили в сети мошенническое видео с использованием образа шоумена Дмитрия Нагиева, где он якобы обещает пользователям ценный приз или денежное вознаграждение – для этого лишь надо перейти на сайт. В результате это ведет к потере денег, отметили в компании. Представитель шоумена сказал РИА Новости, что ему неизвестно о таком роде мошенничества.
Банковские карты
Москвич рассказал, как мошенники списали с его карты миллионы рублей
Как отметили в "Инфосистемы Джет", при нажатии на ссылку пользователь попадает на портал со сгенерированным именем домена. "Такие сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей", - отметили в "Инфосистемы Джет".
По словам специалиста по нейронным сетям компании "Инфосистемы Джет" Анны Олейниковой, deep fake является крайне серьезной угрозой. "Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике", - сказала она.
"Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта для противодействия таким угрозам информационной безопасности, как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий - придется обучать нейронные сети, чтобы они могли находить и распознавать deep fake в сети", - добавила Олейникова.
Банковские карты международных платежных систем VISA и MasterCard
Слышали новость? Мошенники используют ваш голос для кражи денегЧем закончились митинги в Москве? Какие новые способы придумали мошенники для кражи денег? Зарплата по номеру телефона – это хорошо или не очень? Ответы на эти вопросы в новом выпуске программы "Слышали новость?".
В компании отметили, что обычный пользователь может распознать такие фейки по ряду признаков: например, если на видео глаза не моргают, все время открыты или полузакрыты, то, скорее всего, это deep fake; резкое колебания четкости изображения; появление странных шлейфов вокруг контура головы при резких движениях, поворотах, наклонах; колебания освещенности и теней на лице, если положение лица относительно источника света не меняется и ряд других.
"Инфосистемы Джет" — российская ИТ-компания, работающая на рынке системной интеграции. Основные направления ее деятельности: проектирование и внедрение вычислительных комплексов, сетевой инфраструктуры, инженерных систем и мультимедиа, обеспечение информационной безопасности.
Рекомендуем
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии
авторизуйтесь или зарегистрируйтесь
loader
Чаты
Заголовок открываемого материала