https://ria.ru/20231125/tekhnologii-1911785450.html
Эксперт рассказал, при каких условиях ИИ может нести угрозу человеку
Эксперт рассказал, при каких условиях ИИ может нести угрозу человеку - РИА Новости, 25.11.2023
Эксперт рассказал, при каких условиях ИИ может нести угрозу человеку
Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов РИА Новости, 25.11.2023
2023-11-25T09:57
2023-11-25T09:57
2023-11-25T09:57
технологии
билайн
сбер
https://cdnn21.img.ria.ru/images/07e7/06/0f/1878352653_0:235:2730:1771_1920x0_80_0_0_ca30c0d16dbb3ddc28155e17b7a40546.jpg
МОСКВА, 25 ноя - РИА Новости. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов. "Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", - сказал Ермилов. При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%. Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее. В свою очередь, Q* - разработка OpenAI, которую обучили решать задачи из начальной математики - справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", - резюмировал он. Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".
https://ria.ru/20231124/tekhnologii-1911749785.html
https://ria.ru/20231124/gref-1911666094.html
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2023
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/07e7/06/0f/1878352653_0:0:2730:2048_1920x0_80_0_0_691f9f8780d6281c988ba9b977163bb0.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, билайн, сбер
Эксперт рассказал, при каких условиях ИИ может нести угрозу человеку
Эксперт: ИИ может стать опасным, если разрешить ему управлять системами
МОСКВА, 25 ноя - РИА Новости. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов.
"Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", - сказал Ермилов.
При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.
Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "
Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.
В свою очередь, Q* - разработка OpenAI, которую обучили решать задачи из начальной математики - справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", - резюмировал он.
Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".