https://ria.ru/20230329/razrabotka-1861573680.html
Илон Маск призвал временно остановить улучшение нейросетей
Илон Маск призвал временно остановить улучшение нейросетей - РИА Новости, 29.03.2023
Илон Маск призвал временно остановить улучшение нейросетей
Создатели искусственного интеллекта (ИИ) должны минимум на полгода остановить исследование мощных систем, говорится в открытом письме на сайте организации... РИА Новости, 29.03.2023
2023-03-29T15:00
2023-03-29T15:00
2023-03-29T15:29
технологии
земля
илон маск
стивен возняк
tesla motors
spacex
twitter
https://cdnn21.img.ria.ru/images/07e6/0a/06/1821942171_0:220:3058:1940_1920x0_80_0_0_2fda8e5001608b8fad63e4a7c6fe7ef0.jpg
МОСКВА, 29 мар — РИА Новости. Создатели искусственного интеллекта (ИИ) должны минимум на полгода остановить исследование мощных систем, говорится в открытом письме на сайте организации Future of Life.Свои подписи под обращением поставили глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп, а также некоторые эксперты в области ИИ."Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной… Если такая приостановка не может быть быстро сделана, правительства должны вмешаться и ввести мораторий", — говорится в тексте.В письме утверждается, что, согласно результатам крупных исследований, системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества. Отмечается, что лаборатории и специалисты должны использовать предложенный перерыв для создания и внедрения набора протоколов безопасности для более мощных систем.Авторы обращения также призвали разработчиков ИИ наладить сотрудничество с политиками для создания системы управления в этой области. Речь идет о новых регулирующих органах, надежной системе проверки и сертификации, а также контроле более продвинутых систем ИИ.Как отмечают в письме эксперты, сейчас необходимый контроль не обеспечивается и лаборатории пытаются обогнать друг друга, разрабатывая все более мощные системы, чье поведение не могут предсказать даже создатели.
https://ria.ru/20230325/chatgpt-1860549977.html
https://ria.ru/20230329/ii-1861467723.html
https://ria.ru/20230322/neyroset-1859660468.html
земля
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2023
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn21.img.ria.ru/images/07e6/0a/06/1821942171_175:0:2906:2048_1920x0_80_0_0_9a41c7abb7baccadb72ac944377f7e47.jpgРИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
РИА Новости
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, земля, илон маск, стивен возняк, tesla motors, spacex, twitter
Технологии, Земля, Илон Маск, Стивен Возняк, Tesla motors, SpaceX, Twitter
Илон Маск призвал временно остановить улучшение нейросетей
Глава Tesla Маск и другие эксперты в области ИИ призвали приостановить обучение нейросетей
МОСКВА, 29 мар — РИА Новости. Создатели искусственного интеллекта (ИИ) должны минимум на полгода остановить исследование мощных систем, говорится в открытом письме на
сайте организации Future of Life.
Свои подписи под обращением поставили глава
Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple
Стив Возняк, сооснователь Pinterest Эван Шарп, а также некоторые эксперты в области ИИ.
"Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной… Если такая приостановка не может быть быстро сделана, правительства должны вмешаться и ввести мораторий", — говорится в тексте.
В письме утверждается, что, согласно результатам крупных исследований, системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества.
Отмечается, что лаборатории и специалисты должны использовать предложенный перерыв для создания и внедрения набора протоколов безопасности для более мощных систем.
Авторы обращения также призвали разработчиков ИИ наладить сотрудничество с политиками для создания системы управления в этой области. Речь идет о новых регулирующих органах, надежной системе проверки и сертификации, а также контроле более продвинутых систем ИИ.
Как отмечают в письме эксперты, сейчас необходимый контроль не обеспечивается и лаборатории пытаются обогнать друг друга, разрабатывая все более мощные системы, чье поведение не могут предсказать даже создатели.