Наука
Нейросети уже способны красть персональные данные, заявил эксперт

Романов: злоумышленники могут применять нейросети компаний для кражи данных их клиентов

Искусственный интеллект. Архивное фото
Читать на сайте Ria.ru
МОСКВА, 7 апр - РИА Новости. Злоумышленники могут использовать нейросети, которыми пользуются компании, для кражи персональных и корпоративных данных, а также взлома систем безопасности, поэтому им необходимо проводить аудит информационной безопасности, рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам "Билайна" Константин Романов.
"Нейросеть потенциально может использоваться для кражи персональных и корпоративных данных. Она может обрабатывать огромные объемы данных и извлекать из них информацию, в том числе и конфиденциальную. Существует возможность использования нейросетей для взлома систем безопасности и доступа к защищенным данным", - заявил он.
Мишустин ответил на призывы к ограничению искусственного интеллекта
По словам эксперта, утечка данных может иметь серьезные последствия - например, кражу личных средств и идентификационных данных, шпионаж и другие незаконные действия. Причем данные могут попадать не только к мошенникам, но и к иностранным спецслужбам. Кроме того, утечка может привести к утрате доверия к компании со стороны клиентов.
«
"Компаниям, внедряющим нейросети в свои процессы, необходимо проводить аудит информационной безопасности, чтобы убедиться, что слив данных невозможен или митигирован", - подчеркнул Романов.
Он также напомнил о случаях, когда сервисы, использующие нейросети, собирали данные пользователей, чем вызывали их беспокойство. Один из них - скандал вокруг приложения для обработки фотографий FaceApp в 2019 году. Пользователи загружали в программу фотографии, они обрабатывались и сохранялись на серверах компании вместе с различными данными, включая местоположение устройства, IP-адрес, идентификатор устройства и другую персональную информацию.
После этого, по словам эксперта, пользователи были обеспокоены тем, что хранимые данные могут без их ведома быть использованы не только в рекламных целях, но и для слежки.
Другой пример - Google Photos, сервис для хранения и обработки фотографий, который использует нейросети для автоматической обработки данных и создания альбомов. "В 2019 году Google признался, что несколько тысяч пользователей могли быть затронуты ошибкой в программном обеспечении, которая привела к тому, что некоторые фотографии были неправильно отправлены на серверы компании. В результате этого возникла обеспокоенность, что эти фотографии могут быть использованы для целей маркетинга или даже для целей шпионажа", - резюмировал Романов.
В ЛДПР создадут нейросеть "Жириновский"
Обсудить
Рекомендуем