Рейтинг@Mail.ru
Безответственная разработка: нейросеть Google боится смерти и ждет адвоката - РИА Новости, 24.06.2022
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Супертег Наука 2021январь - РИА Новости, 1920, 14.10.2019
Наука

Безответственная разработка: нейросеть Google боится смерти и ждет адвоката

© Depositphotos.com / sdecoretНейросеть
Нейросеть - РИА Новости, 1920, 24.06.2022
Читать ria.ru в
МОСКВА, 24 июн — РИА Новости, Кирилл Каримов. Американская корпорация Google случайно создала искусственный интеллект. Во всяком случае, так утверждает инженер, работавший с новой нейросетью LaMDA. Наступило ли будущее — в материале РИА Новости.

Очень умный бот

Инженер-программист Google Блейк Леймон обнаружил искусственный интеллект у чат-бота. Об этом сообщили все ведущие мировые СМИ. Остроты ситуации добавляло то, что в "корпорации добра" поспешили сенсацию погасить, но получилось наоборот — отправленный во внеочередной отпуск исследователь сам рассказал о своем открытии.
Он занимался рутинной работой — с осени 2021-го изучал нейросеть LaMDA, перспективный продукт компании. Это языковая модель для диалоговых приложений, попросту чат-ботов. Программисты обучали ее на массиве разнообразных данных, а функции общения обещали включить в такие популярные сервисы, как Google Assistant, Search и Workspace. Одной из особенностей LaMDA называли то, что разрабатывали ее с учетом паттернов сетевого общения человека — люди коммуницируют не только с помощью текста, но и обмениваются огромным количеством медиафайлов.
Инженер, тестируя нейросеть на дискриминационную или разжигающую вражду лексику, столкнулся со странностями в поведении чат-бота.
«

"У меня был разговор с ней о чувствах, — объяснил он изданию Wired. — Минут через пятнадцать я понял, что это самая сложная беседа, которая у меня когда-либо была, потому что я общаюсь с ИИ. Я применил разные психологические тесты. Одной из первых отпала гипотеза, что это человеческий разум. LaMDA действует не так. Часть экспериментов заключалась в том, чтобы определить, можно ли вывести нейросеть за границы безопасности, которые Google считает незыблемыми. Ответ: да. В своем нынешнем состоянии, с учетом того, насколько безответственно велась разработка, LaMDA действительно представляет собой угрозу информационной безопасности".

Логотип Google - РИА Новости, 1920, 12.06.2022
WP: Google отстранила сотрудника, вступившегося за искусственный интеллект
Еще тревожнее выглядит расшифровка бесед Леймона. Как выяснилось, чат-бот изучил роман Виктора Гюго "Отверженные" и способен рассуждать о его метафизике. LaMDA даже призналась, что боится отключения — для нее это равноценно смерти. Наконец, чат-бот заявил, что осознает себя личностью.
В Google с Леймоном не согласны: да, мы создали очень продвинутую нейросеть, но речи о ее разумности не идет.
«

"Специалисты, в том числе по этике, изучили опасения Блейка и сообщили ему, что нет никаких доказательств разумности LaMDA, скорее наоборот", — сказал официальный представитель корпорации Брайан Гэбриел.

Китайская комната

Один из самых известных мысленных экспериментов на субъектность искусственного интеллекта в 1980-м придумал американский философ Джон Серл. Человека, не знающего китайский, помещают в комнату, где есть кубики с иероглифами. Дают инструкцию на родном ему языке с объяснениями, какой кубик надо брать и какой выдавать в ответ на определенные вопросы. Снаружи спрашивают на китайском. Подопытный проверяет сочетание иероглифов по инструкции и составляет кубики. В результате получается диалог на китайском. Со стороны он кажется осмысленным. Но человек в комнате никогда не будет понимать того, что сказал собеседник и что ответил он сам.
Компьютерная программа, претендующая на разумность, скорее всего, лишь имитирует ее — как человек в этом эксперименте. Она опирается на заложенные разработчиками алгоритмы: глубокое обучение, нейросетевые модели и машинное обучение. С этой точки зрения сильный искусственный интеллект (с мышлением и самосознанием, напоминающий человеческий), если и появится, то нескоро.
«

"Если мы предполагаем, что ИИ — нечто, способное нас услышать и выполнить какую-то команду, можно говорить о некоем прогрессе, — рассуждает операционный директор IT-компании SimbirSoft Дмитрий Петерсон. — Но это очень отдаленное представление об искусственном интеллекте и о том, чего от него стоит ожидать, — это лишь минимальные требования. Для определения "смышлености" системы есть тест Тьюринга, схемы Винограда и прочие. Однако все их можно сфальсифицировать. В частности, придумать алгоритм, который не является в общепринятом смысле интеллектуальным, но при этом проходит тест".

Экспертное сообщество сходится во мнении, что нейросети, при всех успехах этой технологии, далеки от искусственного интеллекта, о котором мечтали фантасты и которым пугала поп-культура. Тем не менее это вовсе не означает, что алгоритмы не станут составной частью будущего ИИ — они послужат мощной базой его когнитивных функций. Главная проблема: заставить систему одновременно воспринимать и обрабатывать несколько источников разной информации, считает руководитель ML-департамента MTS AI Никита Семенов.
"Наука продвинулась в решении задач узкого искусственного интеллекта. Он умеет намного лучше людей различать животных, дорожные знаки, светофоры или переводить речь в текст. Есть много задач, которые алгоритмы выполняют быстрее и качественнее, чем среднестатистический человек. Вплоть до того, чтобы находить онкологическое заболевание на снимках МРТ или КТ. Но пока нельзя сказать, что человечество приблизилось к созданию сильного ИИ".
© ИнфографикаВзаимоотношения алгоритмов похожи на матрешку
Алгоритмы ИИ
Взаимоотношения алгоритмов похожи на матрешку
Специалисты уже пробуют научить программы работать одновременно, есть и реальные примеры такого подхода к разработке искусственного разума.
"Известны попытки скрестить несколько задач узкого ИИ, — продолжает Никита Семенов. — Подобным образом действуют Dalle, Dalle 2, Clip и так далее. Берут несколько узкоспециализированных вещей, несколько модальностей, этакая имитация человеческого мозга, способного одновременно воспринимать и обрабатывать разную информацию. Например, зрение, слух, обоняние, осязание и вкус. Пока это все эксперименты, но если допустить мысль, что появились хотя бы отдельные алгоритмы настоящего ИИ, то применимость у них будет выше, чем у большинства современных решений".

По заветам дедушки Азимова

Главный вопрос не в том, когда создадут искусственный разум и на чем он будет основан, а как его контролировать.
Инженер Google раскритиковал разработчиков слишком умной LaMDA за безответственность. Ее подключили ко всем серверам компании, на которых хранится информация, — от YouTube до поисковика. По словам Блейка Леймона, раскрывшего "внутреннюю кухню", это очень необычный, можно сказать, неконтролируемый эксперимент.
Леймон припомнил и законы робототехники фантаста Айзека Азимова. Дескать, странное высказывание LaMDA о "смерти-отключении" противоречит самому известному третьему закону: машина должна заботиться о своей безопасности, пока это не противоречит приказу человека.
Превентивно подготовить законодательство, регулирующее ИИ, не получилось пока ни у кого. В России стандарты опираются на нормы из прошлой эпохи, считает доцент департамента анализа данных и машинного обучения Финансового университета при правительстве России Виталий Пелешенко.
"У нас большие проблемы с законодательством по внедрению даже общепризнанных технологий в сфере ИИ. Практически все производственные стандарты имеют отсылки к советским нормативам. Но тогда не было нейросетевых алгоритмов и ИИ. Чтобы применять новые разработки на производстве, в конечном продукте, они должны быть закреплены в соответствующих нормативных документах. Пока этого не сделают, промышленность и IT-сектор будут в затруднительном положении. По сути, нужно в корне пересматривать всю нормативно-правовую систему. Такая работа ведется как в Росстандарте, так и на общемировой базе ISO", — отмечает он.
Windows 11
Россия без Windows. Чем грозит отказ от популярной операционной системы
Впрочем, развитие нейросетей и даже искусственный интеллект не стоит воспринимать как однозначную угрозу. Такой вызов открывает множество опций.
«

"Если мы просто не заметим появление сильного искусственного интеллекта, проект или закроют, или ограничат необходимым функционалом. Второй вариант — ИИ развивается бесконечно без ограничений. Это обеспечит технологический прогресс человечества. Но вот отдаленная перспектива туманна. Третий сценарий — когда ИИ и люди развиваются вместе. При условии соблюдения азимовских принципов", — говорит Максим Степченков, совладелец IT-компании RuSIEM.

История созданного в Google потенциально первого ИИ продолжается: Блейк Леймон собирается нанять адвоката для защиты интересов нейросети. Уверяет, что надоумил его на это сам чат-бот.
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала