https://ria.ru/20230513/moshenniki-1871472026.html
Эксперт рассказал о смене тактики интернет-мошенников
Эксперт рассказал о смене тактики интернет-мошенников - РИА Новости, 13.05.2023
Эксперт рассказал о смене тактики интернет-мошенников
Мошенники уже научились применять нейросети, адаптируются к эволюции технологий и активно используют дипфейки, рассказал РИА Новости ведущий исследователь... РИА Новости, 13.05.2023
2023-05-13T09:38
2023-05-13T09:38
2023-05-13T13:00
технологии
лаборатория касперского
google
microsoft corporation
россия
https://cdnn21.img.ria.ru/images/07e7/05/0a/1870849426_37:483:1548:1333_1920x0_80_0_0_421475dbe12dd47e9397a3b0e6dbbfcf.jpg
МОСКВА, 13 мая — РИА Новости. Мошенники уже научились применять нейросети, адаптируются к эволюции технологий и активно используют дипфейки, рассказал РИА Новости ведущий исследователь данных в "Лаборатории Касперского" Владислав Тушканов. "Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров — это использование образа Илона Маска", — сказал он.При этом, по словам эксперта, мошенники постоянно эволюционируют: люди уже научились не доверять картинкам, поэтому злоумышленники начали создавать дипфейковые видео, которые отличить уже сложнее. "И дело не в том, что дипфейки — плохая технология. Они могут применяться в обучающих видео, позволяют делать их качественными, синхронизировать губы с речью при переводе на разные языки при переозвучке, они уже широко применяются в кинематографе. Но для мошенников это в том числе возможность заставить поверить в свое сообщение", — полагает Тушканов.Играет на руку мошенникам и ажиотаж вокруг нейросетей, отметил собеседник агентства. "Тот же ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны, они даже на какое-то время останавливали регистрации. Мошенники этим активно пользуются. Недавно у нас было исследование: в интернете появились ресурсы якобы для скачивания клиента ChatGPT и еще сразу получить 50 долларов. Конечно, это был не клиент, а троян, и таких случаев сейчас достаточно", — рассказал он. Однако законодательно запрещать искусственный интеллект, как это сделали, например, в Италии, по словам Тушканова, не выход. "Нужно не регулировать саму технологию, а правильно ее применять. В разных странах разные правила. Где-то заставляют предупреждать, что ты говоришь не с человеком, а с роботом, подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение, что это фотография", — полагает он. Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI (один из ее основателей — Илон Маск), набрал популярность в конце прошлого года, собрав первый миллион пользователей менее чем за неделю. В конце января компания Microsoft заявила, что планирует инвестировать в OpenAI миллиарды долларов. А в марте компания представила новую мультимодальную модель GPT-4, которая может распознавать и текст, и изображения, и решать сложные задачи с большей точностью. Но имитация ботом разговора спровоцировала рассуждения о том, что он может вытеснить профессиональных писателей и даже стать угрозой для основного поискового бизнеса Google. В феврале в СМИ появилась информация, что власти Китая запретили крупнейшим технологическим компаниям Tencent Holdings и Ant Group предоставлять клиентам доступ к сервисам ChatGPT. А в конце марта Италия стала первой западной страной, ограничившей работу ChatGPT из-за нарушений при сборе информации пользователей.
https://ria.ru/20230407/neyroseti-1863635964.html
https://ria.ru/20211115/golos-1759042167.html
https://ria.ru/20230504/chatgpt-1869677075.html
россия
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2023
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/07e7/05/0a/1870849426_0:0:1778:1333_1920x0_80_0_0_15034fd44585eaf00fa81a8b7041d338.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, лаборатория касперского, google, microsoft corporation, россия
Технологии, Лаборатория Касперского, Google, Microsoft Corporation, Россия
Эксперт рассказал о смене тактики интернет-мошенников
Эксперт Тушканов: интернет-мошенники переключились на нейросети и дипфейки
МОСКВА, 13 мая — РИА Новости. Мошенники уже научились применять нейросети, адаптируются к эволюции технологий и активно используют дипфейки, рассказал РИА Новости ведущий исследователь данных в "Лаборатории Касперского" Владислав Тушканов.
«
"Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров — это использование образа Илона Маска", — сказал он.
При этом, по словам эксперта, мошенники постоянно эволюционируют: люди уже научились не доверять картинкам, поэтому злоумышленники начали создавать дипфейковые видео, которые отличить уже сложнее.
"И дело не в том, что дипфейки — плохая технология. Они могут применяться в обучающих видео, позволяют делать их качественными, синхронизировать губы с речью при переводе на разные языки при переозвучке, они уже широко применяются в кинематографе. Но для мошенников это в том числе возможность заставить поверить в свое сообщение", — полагает Тушканов.
Играет на руку мошенникам и ажиотаж вокруг нейросетей, отметил собеседник агентства.
"Тот же ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны, они даже на какое-то время останавливали регистрации. Мошенники этим активно пользуются. Недавно у нас было исследование: в интернете появились ресурсы якобы для скачивания клиента ChatGPT и еще сразу получить 50 долларов. Конечно, это был не клиент, а троян, и таких случаев сейчас достаточно", — рассказал он.
Однако законодательно запрещать искусственный интеллект, как это сделали, например, в
Италии, по словам Тушканова, не выход.
"Нужно не регулировать саму технологию, а правильно ее применять. В разных странах разные правила. Где-то заставляют предупреждать, что ты говоришь не с человеком, а с роботом, подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение, что это фотография", — полагает он.
Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI (один из ее основателей — Илон Маск), набрал популярность в конце прошлого года, собрав первый миллион пользователей менее чем за неделю. В конце января компания
Microsoft заявила, что планирует инвестировать в OpenAI миллиарды долларов. А в марте компания представила новую мультимодальную модель GPT-4, которая может распознавать и текст, и изображения, и решать сложные задачи с большей точностью.
Но имитация ботом разговора спровоцировала рассуждения о том, что он может вытеснить профессиональных писателей и даже стать угрозой для основного поискового бизнеса
Google. В феврале в СМИ появилась информация, что власти
Китая запретили крупнейшим технологическим компаниям Tencent Holdings и Ant Group предоставлять клиентам доступ к сервисам ChatGPT. А в конце марта Италия стала первой западной страной, ограничившей работу ChatGPT из-за нарушений при сборе информации пользователей.