Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

ЦБ назвал риски, связанные с использованием искусственного интеллекта

© РИА Новости / Максим БлиновЗдание Центрального банка РФ в Москве
Здание Центрального банка РФ в Москве
Здание Центрального банка РФ в Москве. Архивное фото
МОСКВА, 18 дек - РИА Новости. Применение искусственного интеллекта сопряжено с возникновением ряда серьезных рисков, например, в вопросах защиты персональных данных, заявил в интервью РИА Новости зампред ЦБ РФ Василий Поздышев.
"Могу назвать как минимум следующие риски, связанные с использованием искусственного интеллекта. Во-первых, даже самую сложную нейросеть можно взломать. У продвинутых нейросетей есть одна очень нехорошая особенность, которую в профессиональных кругах называют высокой чувствительностью к малым возмущениям. Это способность нейросети радикально переклассифицировать объект из одной категории в другую при незначительном изменении одного из его малых параметров", - сказал Поздышев.
В качестве примера он привел ситуацию, когда большинство нейросетей, решающих задачу биометрической идентификации, способно отличить мужчину от женщины или одного человека от другого, но если на лицо прилепить кусочек лейкопластыря и написать на нем слово "STOP", то некоторые нейросети переведут эту картинку из категории "лица" в категорию "дорожные знаки".
"Во-вторых, нейросети способны создавать фейковую реальность. Например, после изучения большого количества реальных человеческих лиц нейросеть, если ей поставить такую задачу, очень легко может создать миллионы лиц несуществующих людей, их голоса и отпечатки пальцев – полный набор несуществующих биометрических данных, то есть можно создать целое государство несуществующих людей. И можно их сделать так, что другие нейросети будут воспринимать их как людей реальных. Аналогично можно создать несуществующие юрлица и транзакции", - отметил Поздышев.
Искусственный интеллект
ЮНЕСКО разработает этические нормы в области искусственного интеллекта
Третий риск, по его словам, связан с тем, что применение искусственного интеллекта усложняет вопросы защиты персональных данных, поскольку появляется риск доступа к элементам обучающей выборки, а значит, к персональным данным, которые искусственный интеллект может "вытащить" из обучающей выборки.
"Я вынужден говорить об этом, так как регулятор обязан думать о рисках. Бенефиты для общества от использования новых технологий абсолютно понятны. Но в этом мире никогда не бывает бенефитов без рисков, и эта "ложка дегтя" может оказаться вовсе не ложкой и вовсе не дегтя", - резюмировал зампред ЦБ.
Полную версию интервью читайте на сайте агентства экономической информации "Прайм" (медиагруппа "Россия сегодня") 1prime.ru в 10.00 мск.
Рекомендуем
В Палестине Путин поднял упавшую фуражку офицера караула
Путин поднял упавшую фуражку офицера палестинского караула
Медик около автомобиля скорой медицинской помощи
В Пензе девятиклассник умер после урока английского
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии
авторизуйтесь или зарегистрируйтесь
loader
Чаты
Заголовок открываемого материала