Рейтинг@Mail.ru
Эксперты рассказали, кто может стать жертвой дипфейков - РИА Новости, 14.08.2021
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Супертег Наука 2021январь - РИА Новости, 1920, 14.10.2019
Наука

Эксперты рассказали, кто может стать жертвой дипфейков

© AP PhotoДипфейк с участием Барака Обамы
Дипфейк с участием Барака Обамы - РИА Новости, 1920, 14.08.2021
Читать ria.ru в
МОСКВА, 14 авг — РИА Новости, Кирилл Каримов. Из игрушки гиков технология дипфейк — подмена лиц на видео — превратилась в серьезную индустрию. В Сети гуляют поддельные ролики с Бараком Обамой, Арнольдом Шварценеггером и Илоном Маском. Как искусные имитации перевернули представления о безопасности данных — в материале РИА Новости.

Атака клонов

Нейросети, машинное обучение, искусственный интеллект — на стыке этих трех направлений родилась технология дипфейк, что с английского переводится как "глубокая подделка". Возможность создания псевдовидео возникла несколько лет назад — начало положили не самые качественные ролики, где знаменитости появлялись в чужих ролях.
Дипфейк связан с технологией распознавания лиц, точнее — компьютерным зрением, идентифицирующим того или иного человека. Система составляет карту лица по нескольким десяткам точек и линий между ними. Своеобразный цифровой слепок создается за считанные секунды. Владельцы большинства смартфонов нового поколения используют его каждый день — для разблокировки устройства.
Распознавание лица на смартфоне - РИА Новости, 1920, 02.08.2021
Эксперты рассказали, к чему привело внедрение биометрии на смартфонах
В последние два года индустрия переживает бурный рост: софта для дипфейков все больше, освоит его и любитель. Одна из самых популярных программ — DeepFaceLab, открытое ПО от российского разработчика, называющего себя iperov. Позволяет не только вставлять лицо в видео, но и менять движения губ говорящего, то есть подделывать содержание речи.
Нейросети умеют копировать лица, голос на видеозаписях. Но, как и любому алгоритму, им нужен материал для обучения — чем его больше, тем лучше результат.
"Актеры так популярны в дипфейках, потому что на этом материале нейронные сети могут за сотни часов натренироваться до максимальной правдоподобности. Однако жертвой дипфейка может стать каждый. Спасает только то, что в Сети мало вашего оригинального видео. Кроме того, качественные дипфейки требуют довольно глубоких знаний программирования, времени и денег", — говорит сооснователь сети пабликов МДК, эксперт нестандартной интернет-рекламы Роберто Панчвидзе.

Скрытая угроза

В 2018-м много шума наделало видео с Бараком Обамой, который нелестно отзывался о 45-м президенте США Дональде Трампе. Этот дипфейк сделал режиссер Джордан Пил вместе с изданием BuzzFeed, чтобы продемонстрировать, насколько далеко шагнули технологии и почему нужно тщательно проверять источники информации и не верить своим глазам.
Подобный монтаж используют и в откровенно мошеннических целях — в 2019-м неизвестные размещали ролики, где шоумен Дмитрий Нагиев якобы обещает ценный приз или денежное вознаграждение, для чего лишь надо перейти на сайт. Фишинговая схема выманивала у доверчивых граждан деньги.
Чтобы распознать высокотехнологичную подделку, требуется внимание к деталям. Помогут и специальные сервисы.
Работа в интернете - РИА Новости, 1920, 06.08.2019
Эксперты предупредили об опасности фейковых видео с лицами знаменитостей
"Пока технология не идеальна. Искусственный интеллект не умеет создавать 3D-модели лиц, а лишь работает с двухмерными изображениями — пытается их повернуть, изменить размер или исказить и так далее. Стоит обращать внимание на различные артефакты изображения: мерцания, слишком гладкую кожу, явное искажение границ. Microsoft представила для этого инструмент Video Authenticator", — отмечает Павел Коростелев, эксперт компании "Код безопасности."
"Обратите внимание на уголки глаз. Как правило, нейросети моделируют только положение зрачков, открывают веки. Мимические морщинки им не даются. Если видео длительное, оцените количество вариантов положения губ — в нашей речи их примерно столько же, сколько и звуков, а дипфейк ограничивается максимум десятью, — советует Евгений Царев, управляющий RTM Group.
Новая индустрия, несущая в себе реальную угрозу, должна попасть в правовое поле. Мировая практика, считают эксперты, подскажет, как это сделать наименее болезненно, не помешав развитию технологии в России.
"В некоторых странах этот вопрос частично решили на законодательном уровне. Например, такие ролики обязательно маркируют в Китае, некоторых штатах США (в Калифорнии запрещены дипфейки с политиками перед выборами). Во Франции предусмотрены санкции за монтаж речи или изображения человека без его согласия", — рассказывает Валерий Сидоренко, генеральный директор digital-агентства "Интериум", член Общественного совета при Министерстве цифрового развития, связи и массовых коммуникаций.

Новая надежда

Технология дипфейков способна открыть новую эру для визуального контента. Авторам удачных подделок крупные киностудии уже предлагают работу.
Так, Lucasfilm сотрудничает с известным в YouTube дипфейкером Shamook — автору стотысячного видеоблога удалось сделать куда более правдоподобным камео виртуальных Марка Хэмилла (Люк Скайуокер в "Мандалорце") и Питера Кушинга (гранд-мофф Таркин в "Изгое-один"), чем студии с многомиллионным бюджетом "Звездных войн". Кушинг ушел из жизни еще в 1994 году — в Голливуде намерены поставить на поток цифровое "воскрешение" звезд прошлого.
Наконец, дипфейки становятся просто народной забавой: многочисленные приложения для смартфонов вроде популярного Reface, позволяют создавать короткие ролики с подменой лиц. Естественно, такие видео далеки от совершенства и вряд ли кого-то обманут, а вот развеселят наверняка.
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала