МОСКВА, 27 июл — РИА Новости. Знаменитые мировые ученые, исследователи искусственного интеллекта (ИИ), бизнесмены, специалисты по робототехнике подписали открытое письмо, в котором заявили о том, что необходимо предотвратить гонку вооружений на основе ИИ, поскольку это может привести к самым печальным последствиям для человечества.
Текст открытого письма с формой для подписания и со списком уже подписавшихся опубликован на сайте Future of Life Institute. Свое согласие под обращением на данный момент поставило несколько сотен ученых и специалистов со всего мира, среди которых известнейший популяризатор науки, британский физик Стивен Хокинг, глава компании Tesla и проекта SpaceX Элон Маск, один из создателей Apple Inc Стивен Возняк.
В письме отмечается, что особенностью автономных вооружений на основе искусственного интеллекта является их возможность поражать цели без вмешательства человека и что технология ИИ уже достигла того момента, когда развертывание систем оружия с ИИ может быть осуществлено практически в ближайшие годы. Автономные системы вооружений называют третьей революцией в военных действиях, после пороха и ядерного оружия, говорится в документе.
Авторы письма уверены, что для человечества сегодня ключевым является вопрос — будет или нет запущена гонка вооружений на основе ИИ. Если такую гонку начнут инициировать крупные корпорации, то спустя какое-то время автономные оружейные системы получат широкое распространение, поскольку в отличие от ядерного оружия для их создания не требуется дорогостоящего или трудно получаемого сырья.
"Вопросом времени будет появление таких систем на черном рынке или их попадание в руки террористов, диктаторов, "военных баронов", стремящихся к осуществлению этнических чисток. Автономное оружие идеально подходит для убийств, дестабилизирующих нации, подчинения населения и избирательного уничтожения определенной этнической группы. Поэтому мы считаем, что гонка вооружений на основе ИИ не выгодна человечеству", — говорится в письме.
Авторы письма отмечают, что ИИ имеет большой полезный потенциал и во многом может сослужить добрую службу человечеству. Но гонка вооружений ИИ является плохой идеей, и поэтому необходимо ввести запрет на наступательное оружие, созданное на основе искусственного интеллекта, говорится в письме.