Рейтинг@Mail.ru
СМИ: Сунак и Байден обсудят создание "барьеров" на пути внедрения ИИ - РИА Новости, 03.06.2023
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
СМИ: Сунак и Байден обсудят создание "барьеров" на пути внедрения ИИ

Times: премьер Британии Сунак и Байден обсудят создание "барьеров" на пути внедрения ИИ

© Pixabay / Pixabay/Gerd AltmannИскусственный интеллект
Искусственный интеллект - РИА Новости, 1920, 03.06.2023
Искусственный интеллект. Архивное фото
Читать ria.ru в
МОСКВА, 3 июн - РИА Новости. Премьер-министр Великобритании Риши Сунак на следующей неделе обсудит с президентом США Джо Байденом создание "барьеров" на пути внедрения искусственного интеллекта (ИИ), среди идей создание международного органа по контролю за ИИ по образцу МАГАТЭ, сообщает британская газета Times.
Ранее Сунак заявлял, что намерен поднять тему угрозы уничтожения человечества искусственным интеллектом во время своего визита в США, который состоится 7-8 июня.
Известный британский нейропсихолог, профессор Николас Хамфри (Лондонская школа экономики) беседует с буддийскими монахами-учеными о сознании на конференции “Сознание животных” в Дхарамсале  - РИА Новости, 1920, 17.05.2023
Нейропсихолог пояснил, почему у искусственного интеллекта нет сознания
"Премьер-министр обсудит пути сотрудничества по созданию "оградительных барьеров" на пути новой технологии во время встречи с президентом Байденом в Белом доме на следующей неделе. Среди идей, рассматриваемых на Даунинг-стрит, - создание в Лондоне глобального органа по контролю за ИИ по образцу МАГАТЭ", - говорится в сообщении издания.
Как отмечает издание, идею по созданию международного органа по контролю за ИИ Сунаку озвучил глава OpenAI Сэм Альтман.
В докладе, представленном полковником ВВС США Такером Хэмилтоном на мероприятии Королевского аэронавтического общества в Великобритании, рассказывалось о симуляции поражения ударным БПЛА зенитных систем противника: программа, приняв вмешательство оператора за помеху в достижении главной цели, атаковала его самого.
Ранее сооснователь Apple Стив Возняк высказался за поддержку регулирования искусственного интеллекта для защиты людей. А британско-канадский ученый Джеффри Хинтон, которого называют "пионером" и "крестным отцом" в области ИИ, покинул компанию Google, в которой проработал более 10 лет и занимался разработкой алгоритмов машинного обучения, чтобы открыто предупредить людей о возможной опасности технологии.
В марте американский бизнесмен Илон Маск и ряд экспертов в области искусственного интеллекта подписали открытое письмо, в котором призвали приостановить разработку ИИ минимум на полгода для того, чтобы создать твердые правила регулирования разработки и деятельности современных ИИ-технологий, так как последние могут представлять серьезные риски для общества и человечества.
В некоторых странах уже начали рассматривать возможности ограничить риски использования ИИ. Так, администрация президента США Джо Байдена начала изучать вопрос о необходимости проверки работы программ, основанных на искусственном интеллекте, таких как чат-бот ChatGPT, на фоне опасений, что их могут использовать для совершения преступлений и распространения дезинформации. Управление по вопросам киберпространства КНР представило проект мер по регулированию сервисов генеративного искусственного интеллекта, в которых, в частности, отмечается, что генерируемый контент должен воплощать "базовые социалистические ценности". Глава Google Сундар Пичаи заявлял, что развитие искусственного интеллекта и его внедрение в повседневную жизнь может привести к увеличению масштаба дезинформации. О необходимости поиска возможности для регулирования сферы ИИ, в том числе на международном уровне, также заявлял глава OpenAI Сэм Альтман.
Металлическая голова, символизирующая искусственный интеллект - РИА Новости, 1920, 11.05.2023
В Европарламенте обсудят закон об искусственном интеллекте
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала