Рейтинг@Mail.ru
Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ - РИА Новости, 26.10.2025
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ

МВД назвало способы защиты от розыгрышей с помощью ИИ

Смартфон в руках - РИА Новости, 1920, 26.10.2025
Читать ria.ru в
ДзенMaxTelegram
МОСКВА, 26 окт - РИА Новости. Проверка источника видео, обратный поиск по фото, а также специализированные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью ИИ, рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ.
"С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили "бездомного", чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в соцсети", - говорится в сообщении.
Мужчина держит в руках мобильный телефон - РИА Новости, 1920, 19.10.2025
Россиян предупредили о новом виде мошенничества с дипфейками
В ведомстве отметили, что в данных розыгрышах нет злого умысла, однако есть важный симптом времени - сейчас создание дипфэйков требует минимальных ресурсов.
"Современные нейросети автоматически подгоняют выражения лица и голос под заданный текст. Видео выглядит достоверно, но именно это и создаёт риски: под видом шутки могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические призывы в инвестиции", - отмечается в сообщении.
В МВД рассказали, чтобы не стать жертвой подобного розыгрыша, преступления или информационной операции необходимо проверять источник - видео без понятного происхождения — повод для паузы, а поэтому стоит проверить официальные аккаунты, сайты или Telegram-каналы. Также стоит обращать внимание на мелкие артефакты: неровные контуры лица, "дрожащие" тени, странные движения губ и глаз, иногда звук чуть запаздывает — именно такие сбои выдают синтетическую природу видео.
"Контекст. Если человек в ролике говорит непривычно для себя — проверить, соответствует ли это реальной ситуации и публичной позиции. Если фото с бездомным приходит от ребенка – крепиться. Обратный поиск. Кадр или фрагмент можно проверить через Яндекс или Google Images — это поможет понять, не взят ли он из другого видео", - рекомендуют в управлении.
Мужчина сидит за компьютером - РИА Новости, 1920, 05.10.2025
Каждый второй россиянин не знает, что такое дипфейк, показало исследование
Кроме того, можно использовать специализированные сервисы, которые анализируют видео и показывают вероятность синтетического монтажа.
Помимо этого, как сообщают правоохранители, российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая face-swap в видеозвонках.
"Важно: ни одна технология не даёт стопроцентной гарантии. Алгоритмы оценивают вероятность, а окончательное суждение — за человеком", - заключили в управлении.
Мужчина работает за компьютером - РИА Новости, 1920, 06.10.2024
Эксперт объяснил, как распознать сгенерированные ИИ фишинговые письма
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала