https://ria.ru/20230514/neyroseti-1871608277.html
Эксперт рассказал, можно ли научить нейросети предсказывать будущее
Эксперт рассказал, можно ли научить нейросети предсказывать будущее - РИА Новости, 14.05.2023
Эксперт рассказал, можно ли научить нейросети предсказывать будущее
Искусственный интеллект уже научился выполнять базовые задачи и может заменять человека в распознавании мошеннических сайтов или ссылок, но предсказать будущее... РИА Новости, 14.05.2023
2023-05-14T10:49
2023-05-14T10:49
2023-05-14T10:49
наука
технологии
лаборатория касперского
общество
https://cdnn21.img.ria.ru/images/07e5/0c/18/1765305723_0:0:3640:2048_1920x0_80_0_0_e87bbe5eea37d83e8d122323e4ae4796.jpg
МОСКВА, 14 мая - РИА Новости. Искусственный интеллект уже научился выполнять базовые задачи и может заменять человека в распознавании мошеннических сайтов или ссылок, но предсказать будущее не способен, рассказал РИА Новости ведущий исследователь данных в "Лаборатории Касперского" Владислав Тушканов. "Искусственный интеллект, на мой взгляд, не применим в том, что называется предсказание социального поведения человека. Было много таких исследований, которые посвящены тому, например, будет ли человек хорошо учиться в вузе или какую профессию ему выбрать. Берутся все данные об этом человеке, передаются искусственному интеллекту, но результаты получаются очень спорными. Прогнозы о поведении людей - это то, где искусственный интеллект применять не нужно, потому что последствия будут непредсказуемы", - поделился он мнением. Отвечая же на вопрос, где искусственный интеллект может применяться и применяется уже сейчас, Тушканов заявил, что нейросетям можно доверить некоторые базовые задачи, выполняемые сейчас младшими специалистами. "Есть один простой принцип, чтобы понять, где можно использовать машинное обучение. Если специалист может выполнить эту задачу мгновенно, например, распознать фишинговую ссылку или мошеннический сайт, то в таких случаях довольно рационально применять нейросети, потому что они легко автоматизируются. В нашей практике тоже есть рутинная работа: весь фишинг и вредоносное ПО руками не разберешь - мы детектируем 400 тысяч уникальных вредоносных объектов в день", - привел он пример. При этом эксперт пояснил, что нейросеть может помочь только в случае с самыми простыми угрозами, в распознавании же более сложных участие человека все еще необходимо. В то же время Тушканов предостерег от восприятия нейросетей как панацеи. "Вокруг того же ChatGPT очень много хайпа, и сейчас очень много людей думают, что это серебряная пуля, которая решит их проблемы быстро и просто. Но это особая сфера, она очень давно развивается, и работать с ней должны специалисты, которые умеют с ней обращаться, которые понимают, как делать эти решения надежными, как делать так, чтобы они не ошибались или ошибались в контролируемом количестве случаев", - пояснил он.
https://ria.ru/20230510/knigi-1870773626.html
https://ria.ru/20230514/ugroza-1871584812.html
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2023
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/07e5/0c/18/1765305723_620:0:3351:2048_1920x0_80_0_0_f4a9d9ce3d90c8d9ec6af2420ca6d585.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, лаборатория касперского, общество
Наука, Технологии, Лаборатория Касперского, Общество
Эксперт рассказал, можно ли научить нейросети предсказывать будущее
Эксперт Тушканов: ИИ нельзя научить предсказывать будущее, но можно использовать в рутине
МОСКВА, 14 мая - РИА Новости. Искусственный интеллект уже научился выполнять базовые задачи и может заменять человека в распознавании мошеннических сайтов или ссылок, но предсказать будущее не способен, рассказал РИА Новости ведущий исследователь данных в "Лаборатории Касперского" Владислав Тушканов.
«
"Искусственный интеллект, на мой взгляд, не применим в том, что называется предсказание социального поведения человека. Было много таких исследований, которые посвящены тому, например, будет ли человек хорошо учиться в вузе или какую профессию ему выбрать. Берутся все данные об этом человеке, передаются искусственному интеллекту, но результаты получаются очень спорными. Прогнозы о поведении людей - это то, где искусственный интеллект применять не нужно, потому что последствия будут непредсказуемы", - поделился он мнением.
Отвечая же на вопрос, где искусственный интеллект может применяться и применяется уже сейчас, Тушканов заявил, что нейросетям можно доверить некоторые базовые задачи, выполняемые сейчас младшими специалистами.
«
"Есть один простой принцип, чтобы понять, где можно использовать машинное обучение. Если специалист может выполнить эту задачу мгновенно, например, распознать фишинговую ссылку или мошеннический сайт, то в таких случаях довольно рационально применять нейросети, потому что они легко автоматизируются. В нашей практике тоже есть рутинная работа: весь фишинг и вредоносное ПО руками не разберешь - мы детектируем 400 тысяч уникальных вредоносных объектов в день", - привел он пример.
При этом эксперт пояснил, что нейросеть может помочь только в случае с самыми простыми угрозами, в распознавании же более сложных участие человека все еще необходимо.
В то же время Тушканов предостерег от восприятия нейросетей как панацеи. "Вокруг того же ChatGPT очень много хайпа, и сейчас очень много людей думают, что это серебряная пуля, которая решит их проблемы быстро и просто. Но это особая сфера, она очень давно развивается, и работать с ней должны специалисты, которые умеют с ней обращаться, которые понимают, как делать эти решения надежными, как делать так, чтобы они не ошибались или ошибались в контролируемом количестве случаев", - пояснил он.