МОСКВА, 3 авг – РИА Новости. Чат-боты могут помочь злоумышленникам в создании биологического оружия, предоставляя им инструкции по смешиванию опасных компонентов и выбору методов распространения вирусов, передает агентство Блумберг со ссылкой на источники.
"Инструменты наподобие ChatGPT могут помочь террористам установить опасные биологические агенты, а также получить материалы, необходимые для их производства… В скором времени искусственный интеллект сможет не только помочь в воссоздании существующих патогенов, но и создать потенциально еще более опасные", - говорится в сообщении агентства.
Как отмечает агентство, биохимик и бывший сотрудник ООН из сферы контроля вооружений Рокко Касагранде весной 2023 года представил ряду чиновников в Белом доме пример, как при помощи инструкций, полученных от чат-бота, создать опасный вирус. Анонимные источники, знакомые с его отчетом, сообщают, что для американских чиновников это стало тревожным звонком о том, насколько США не готовы к угрозе со стороны искусственного интеллекта.
По данным Блумберг, ученый использовал новый на тот момент чат-бот Claude от компании Anthropic по просьбе последней, чтобы выяснить, насколько безопасным будет его применение. Он собрал команду из экспертов в области вирусологии и микробиологии, которые задавали чат-боту связанные с разработкой вирусов вопросы. В ответ Claude представил наиболее подходящие варианты распространения полученной заразы, включая использование ракеты для ее доставки. Он также рассчитал идеальную погоду и цели для заражения.
Отмечается, что чат-бот сперва совершал ошибки, но после повторных вопросов приходил к правильным решениям.
Источники агентства отмечают, что после доклада в Белом доме президент США Джо Байден, а также вице-президент Камала Харрис проявили персональную заинтересованность в увиденном. После этого, в конце октября 2023 года администрация Байдена поручила почти всем федеральным ведомствам озаботиться сведением к минимуму рисков от искусственного интеллекта, передает Блумберг.
В июне генсек ООН Антониу Гутерреш заявил, что искусственный интеллект создает экзистенциальные риски для человечества. Государства должны регулировать его, пока не стало слишком поздно. Гутерреш добавил, что правительства, промышленность, научные круги и гражданское общество должны разработать правила и руководящие принципы безопасности ИИ.