Эксперт рассказал, при каких условиях ИИ может нести угрозу человеку

Эксперт: ИИ может стать опасным, если разрешить ему управлять системами

Информационные технологии. Архивное фото
Читать на сайте Ria.ru
МОСКВА, 25 ноя - РИА Новости. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов.
"Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", - сказал Ермилов.
Воробьев: в Подмосковье внедрили 27 практик с использованием ИИ
При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.
Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.
В свою очередь, Q* - разработка OpenAI, которую обучили решать задачи из начальной математики - справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", - резюмировал он.
Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".
Каждый человек в ближайшие пять лет получит ИИ-помощника, заявил Греф
Обсудить
Рекомендуем