Рейтинг@Mail.ru
Большинство россиян не могут отличить дипфейки от реальных фотографий - РИА Новости, 04.06.2025
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Большинство россиян не могут отличить дипфейки от реальных фотографий

Более 60% россиян не могут отличить дипфейки от реальных фотографий

© Pexels/Andrea PiacquadioДевушка работает за компьютером
Девушка работает за компьютером - РИА Новости, 1920, 03.06.2025
Девушка работает за компьютером. Архивное фото
Читать ria.ru в
ДзенMaxTelegram
НИЖНИЙ НОВГОРОД, 3 июн - РИА Новости. Более 60% россиян не отличают фотографии, сгенерированные искусственным интеллектом (ИИ), от настоящих, выяснили аналитики MWS AI, данные исследования есть в распоряжении РИА Новости.
В ходе исследования аналитики показывали респондентам десять изображений людей: четыре были сгенерированы ИИ, а шесть – реальными снимками. Из четырех сгенерированных фотографий три были созданы с помощью специализированной нейросети для создания дипфейков, а четвертая - с помощью обычной большой языковой модели на основе текстового описания.
Фойе Государственной Думы РФ - РИА Новости, 1920, 07.05.2025
В Госдуме намерены законодательно определить понятие дипфейка
"Более 60% россиян уже не могут отличить дипфейк от фотографии. MWS AI провела опрос, показавший, что большинство россиян не могут отличить сгенерированные искусственным интеллектом фотографии людей от реальных снимков. … Уровень распознавания фотографий, созданных специализированными нейросетями для генерации человеческих лиц, оказался значительно ниже. Все три сгенерированных портрета большинство респондентов приняли за изображения реальных людей - причем в каждом случае правильных ответов было менее 40%", - сказано в исследовании. Его результаты будут представлены на ЦИПР-2025.
Один из дипфейков 81% участников опроса посчитали фотографией реального человека.
При этом аналитики выяснили, что изображение, созданное обычной ИИ-моделью, чаще всего распознавали как сгенерированное.
"Это объясняется особенностями целевого назначения моделей - нейросети, разработанные исключительно для генерации лиц, за последние годы научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, благодаря чему итоговое изображение становится практически неотличимым от реальной фотографии", - объяснили в MWS AI.
Большинство опрошенных, в свою очередь, посчитали три из шести реальных фотографий дипфейками.
Специалисты компании считают, что инструментами создания безопасной цифровой среды в эпоху генеративного ИИ могут стать добровольная маркировка ИИ-контента в маркетинге и рекламе, повышение безопасности финансовых сервисов, развитие стандартов для государственных ИИ-решений, а также образовательные программы по цифровой грамотности.
Смартфон - РИА Новости, 1920, 14.01.2025
В мире появились люди, готовые работать моделями для дипфейков
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала