https://ria.ru/20240229/neyroseti-1930112557.html
Эксперт объяснил, чем опасны ошибки нейросетей
Эксперт объяснил, чем опасны ошибки нейросетей - РИА Новости, 29.02.2024
Эксперт объяснил, чем опасны ошибки нейросетей
Полное доверие нейросетям в недалеком будущем может сыграть злую шутку - они все еще нередко ошибаются, что в критических ситуациях может иметь серьезные... РИА Новости, 29.02.2024
2024-02-29T04:46
2024-02-29T04:46
2024-02-29T05:24
общество
технологии
лаборатория касперского
россия
https://cdnn21.img.ria.ru/images/152297/71/1522977132_128:0:7374:4076_1920x0_80_0_0_04ec5fd1abe7f78c95e028c368cc1e7c.jpg
МОСКВА, 29 фев - РИА Новости. Полное доверие нейросетям в недалеком будущем может сыграть злую шутку - они все еще нередко ошибаются, что в критических ситуациях может иметь серьезные последствия, также таким чрезмерным доверием могут воспользоваться и злоумышленники, рассказал РИА Новости руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов. "Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна. Мы, как человеческий вид, к такому не были готовы. Если что-то хорошо, красиво говорит, особенно, если это компьютер, значит, это нечто разумное, и мы склонны ему верить, а оно может ошибаться, и нередко", - сказал он. Эта проблема, отмечает эксперт, называется overreliance (чрезмерное доверие или зависимость), когда большие языковые модели начинают использоваться как помощники и инструменты для оптимизации процессов и облегчения какого-то рутинного интеллектуального труда, входят в жизнь человека, и пользователь начинает на них излишне полагаться. "Это вероятностные алгоритмы, они имитируют человеческую речь, текст, написанный человеком, но это не всегда верно фактологически, а система все равно уверенно подает нам это как истину - такие ситуации называются галлюцинациями. И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять - это главный риск", - говорит Тушканов. Так, по его словам, если нейросеть попросить подобрать фильм на вечер, а она предложит несуществующую картину, "в этом не будет ничего страшного". "Но если я ей выложу свои симптомы и спрошу, чем я сейчас болею, а она мне поставит неверный диагноз - вот это уже опасно", - объясняет он. В том, что искусственному интеллекту когда-либо можно будет доверять на 100%, эксперт сомневается: "Пока любая большая языковая модель генерирует каждое слово с учетом предыдущих, используя наиболее вероятные комбинации, поэтому ошибки возникают довольно часто. Сейчас исследователи работают над улучшением фактологичности, чтобы нейросеть, если не уверена, сказала "я не знаю", поэтому пока, наверное, я бы не стал полагаться на нее, особенно в чем-то важном. Есть подходы, которые позволяют улучшать надежность генерации, но 100% гарантии ни с какими вероятностными системами давать нельзя". А вот в том, что чрезмерным доверием людей воспользуются злоумышленники, он почти уверен: "Возможно, мошенники тоже возьмут это на вооружение. В комбинации с дипфейками, в комбинации с подделкой голоса это может стать большой угрозой в недалеком будущем". Впрочем, пока в развитии ИИ для человечества больше плюсов, отмечает он: люди уже перестают смотреть на нейросети, как на "болталки, с которыми можно поговорить или попросить написать стихотворение", и видят в них системы, на основе которых можно проектировать еще более сложные приложения. "У нас появляются плагины к ним, инструменты, с помощью которых они могут работать с файлами на диске, искать в интернете, анализировать и выдавать результат в готовом и полезном виде. Стремление компаний, разработчиков, исследователей научить большие языковые модели работать с этими инструментами - это, как мне кажется, основной путь, по которому применение будет расширяться и сами они будут развиваться", - полагает Тушканов.
https://ria.ru/20240229/dipfeyk-1930107951.html
https://ria.ru/20240217/spetsialnosti-1927921032.html
https://ria.ru/20231207/nauka-1914158716.html
россия
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2024
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/152297/71/1522977132_1033:0:6468:4076_1920x0_80_0_0_e04539dd3929124ca189ad95a47f89e0.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
общество, технологии, лаборатория касперского, россия
Общество, Технологии, Лаборатория Касперского, Россия
Эксперт объяснил, чем опасны ошибки нейросетей
Эксперт Тушканов: полное доверие ИИ опасно, он может и будет ошибаться
МОСКВА, 29 фев - РИА Новости. Полное доверие нейросетям в недалеком будущем может сыграть злую шутку - они все еще нередко ошибаются, что в критических ситуациях может иметь серьезные последствия, также таким чрезмерным доверием могут воспользоваться и злоумышленники, рассказал РИА Новости руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов.
«
"Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна. Мы, как человеческий вид, к такому не были готовы. Если что-то хорошо, красиво говорит, особенно, если это компьютер, значит, это нечто разумное, и мы склонны ему верить, а оно может ошибаться, и нередко", - сказал он.
Эта проблема, отмечает эксперт, называется overreliance (чрезмерное доверие или зависимость), когда большие языковые модели начинают использоваться как помощники и инструменты для оптимизации процессов и облегчения какого-то рутинного интеллектуального труда, входят в жизнь человека, и пользователь начинает на них излишне полагаться.
"Это вероятностные алгоритмы, они имитируют человеческую речь, текст, написанный человеком, но это не всегда верно фактологически, а система все равно уверенно подает нам это как истину - такие ситуации называются галлюцинациями. И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять - это главный риск", - говорит Тушканов.
Так, по его словам, если нейросеть попросить подобрать фильм на вечер, а она предложит несуществующую картину, "в этом не будет ничего страшного". "Но если я ей выложу свои симптомы и спрошу, чем я сейчас болею, а она мне поставит неверный диагноз - вот это уже опасно", - объясняет он.
В том, что искусственному интеллекту когда-либо можно будет доверять на 100%, эксперт сомневается: "Пока любая большая языковая модель генерирует каждое слово с учетом предыдущих, используя наиболее вероятные комбинации, поэтому ошибки возникают довольно часто. Сейчас исследователи работают над улучшением фактологичности, чтобы нейросеть, если не уверена, сказала "я не знаю", поэтому пока, наверное, я бы не стал полагаться на нее, особенно в чем-то важном. Есть подходы, которые позволяют улучшать надежность генерации, но 100% гарантии ни с какими вероятностными системами давать нельзя".
А вот в том, что чрезмерным доверием людей воспользуются злоумышленники, он почти уверен: "Возможно, мошенники тоже возьмут это на вооружение. В комбинации с дипфейками, в комбинации с подделкой голоса это может стать большой угрозой в недалеком будущем".
Впрочем, пока в развитии ИИ для человечества больше плюсов, отмечает он: люди уже перестают смотреть на нейросети, как на "болталки, с которыми можно поговорить или попросить написать стихотворение", и видят в них системы, на основе которых можно проектировать еще более сложные приложения.
"У нас появляются плагины к ним, инструменты, с помощью которых они могут работать с файлами на диске, искать в интернете, анализировать и выдавать результат в готовом и полезном виде. Стремление компаний, разработчиков, исследователей научить большие языковые модели работать с этими инструментами - это, как мне кажется, основной путь, по которому применение будет расширяться и сами они будут развиваться", - полагает Тушканов.