Рейтинг@Mail.ru
Нейросети уже способны красть персональные данные, заявил эксперт - РИА Новости, 07.04.2023
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Супертег Наука 2021январь - РИА Новости, 1920, 14.10.2019
Наука
Нейросети уже способны красть персональные данные, заявил эксперт

Романов: злоумышленники могут применять нейросети компаний для кражи данных их клиентов

© Depositphotos.com / agsandrewИскусственный интеллект
Искусственный интеллект - РИА Новости, 1920, 07.04.2023
Искусственный интеллект. Архивное фото
Читать ria.ru в
Дзен
МОСКВА, 7 апр - РИА Новости. Злоумышленники могут использовать нейросети, которыми пользуются компании, для кражи персональных и корпоративных данных, а также взлома систем безопасности, поэтому им необходимо проводить аудит информационной безопасности, рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам "Билайна" Константин Романов.
"Нейросеть потенциально может использоваться для кражи персональных и корпоративных данных. Она может обрабатывать огромные объемы данных и извлекать из них информацию, в том числе и конфиденциальную. Существует возможность использования нейросетей для взлома систем безопасности и доступа к защищенным данным", - заявил он.
Председатель правительства РФ Михаил Мишустин - РИА Новости, 1920, 07.04.2023
Мишустин ответил на призывы к ограничению искусственного интеллекта
По словам эксперта, утечка данных может иметь серьезные последствия - например, кражу личных средств и идентификационных данных, шпионаж и другие незаконные действия. Причем данные могут попадать не только к мошенникам, но и к иностранным спецслужбам. Кроме того, утечка может привести к утрате доверия к компании со стороны клиентов.
«
"Компаниям, внедряющим нейросети в свои процессы, необходимо проводить аудит информационной безопасности, чтобы убедиться, что слив данных невозможен или митигирован", - подчеркнул Романов.
Он также напомнил о случаях, когда сервисы, использующие нейросети, собирали данные пользователей, чем вызывали их беспокойство. Один из них - скандал вокруг приложения для обработки фотографий FaceApp в 2019 году. Пользователи загружали в программу фотографии, они обрабатывались и сохранялись на серверах компании вместе с различными данными, включая местоположение устройства, IP-адрес, идентификатор устройства и другую персональную информацию.
После этого, по словам эксперта, пользователи были обеспокоены тем, что хранимые данные могут без их ведома быть использованы не только в рекламных целях, но и для слежки.
Другой пример - Google Photos, сервис для хранения и обработки фотографий, который использует нейросети для автоматической обработки данных и создания альбомов. "В 2019 году Google признался, что несколько тысяч пользователей могли быть затронуты ошибкой в программном обеспечении, которая привела к тому, что некоторые фотографии были неправильно отправлены на серверы компании. В результате этого возникла обеспокоенность, что эти фотографии могут быть использованы для целей маркетинга или даже для целей шпионажа", - резюмировал Романов.
Памятник основателю ЛДПР Владимиру Жириновскому, открытому в годовщину смерти политика на Новодевичьем кладбище в Москве - РИА Новости, 1920, 06.04.2023
В ЛДПР создадут нейросеть "Жириновский"
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала