Эмоциональный ИИ сможет сказать: "У меня нет настроения работать"

© Иллюстрация РИА Новости . Алина Полянина, DepositphotosИскусственный интеллект можно вырастить, считает экспертИскусственный интеллект можно вырастить, считает эксперт
Подпишись на ежедневную рассылку РИА Наука

Спасибо за подписку

Пожалуйста, проверьте свой e-mail для подтверждения подписки

Исследования в области искусственного интеллекта сегодня находятся на передовом крае науки и занимают одно из важных мест в работе ученых Национального исследовательского ядерного университета "МИФИ" (НИЯУ МИФИ). Какие разработки сегодня ведутся в этой сфере? Что стоит за желанием ученых научить машину творчеству? Об этом в дни работы XX Международной научно-технической конференции "Нейроинформатика-2018" корреспонденту проекта "Социальный навигатор" МИА "Россия сегодня" рассказал профессор Института интеллектуальных кибернетических систем (НИЯУ МИФИ) Алексей Самсонович.

—  Алексей Владимирович, некоторое время назад вы рассказывали про создание виртуального помощника композитора. Вас привлекает моделирование творческого мышления? 

Так художник представил себе работу искусственного интеллекта на базе нейронной сети
Искусственный разум: чего ждать людям от умного железа
— Вообще, меня привлекает задача создания искусственного интеллекта человеческого уровня, в частности, эмоционального интеллекта. Это необходимо для того, чтобы сделать будущих виртуальных агентов совместимыми с людьми. Люди не воспринимают нечто как живое, если оно не в состоянии понимать эмоции и выражать эмоции.

Для успеха искусственного интеллекта в целом необходима его совместимость с людьми. Они должны воспринимать его как равного партнера, а не как средство для достижения целей. Такое возможно только на основе взаимопонимания. 

А то, что в данный момент я сфокусировался на творчестве, – это, скорее, промежуточный шаг. Конечная цель для меня – не творчество и не искусственный интеллект, занимающийся искусством (хотя это, безусловно, важная и интересная задача). Это лишь звено на цепочке шагов к искусственному интеллекту человеческого уровня. 

© AFP 2018Роботы Qrio танцуют аргентинское танго в Токио, Япония. 2005 год
Роботы Qrio танцуют аргентинское танго в Токио, Япония. 2005 год
Сначала нам нужно было продемонстрировать неотличимость искусственного интеллекта от человека в ограниченном окружении, что мы и сделали полтора-два года назад. Потом нужно было двигаться дальше, все еще оставаясь в рамках "игрушечных" задач. Мы поставили цель не просто пройти тест Тьюринга (тест для определения "разумности" машины – ред.), а создать некий творческий продукт – например, произведение искусства – совместно человеком и искусственным интеллектом.

В этом направлении в мире сегодня уже сделано немало, и трудно было бы превзойти эти достижения. Но мы и не пытаемся этого сделать, потому что наш подход совершенно другой, он основан на когнитивной архитектуре, а не на нейросетях, как у большинства других исследователей. Там цели достигаются фактически без какого-либо понимания механизмов творческого процесса человека, что не позволяет созданному искусственному интеллекту двигаться дальше того, ради чего он был создан. А наш подход основан на том, что решая определенную задачу, мы выясняем общие принципы и вырабатываем понимание, позволяющее нам решать следующие задачи.

—  Входит ли в ваши планы создание виртуального художника?

— Я дал нескольким студентам такую задачу. Идея у нас была простая. В начале XX века творил известный художник, один из основателей абстракционизма, Пит Мондриан. Многие из его высоко оцененных картин представляют собой прямоугольники, разбитые на большое количество меньших прямоугольников разного цвета. 

Я предложил следующее: создать искусственный интеллект, который будет заново раскрашивать репродукции картин Мондриана, "не зная" ничего о раскраске оригиналов. И предложить испытуемым два набора картин, чтобы они не знали, где что, и сравнили, который лучше. Кто знает, может быть, наш искусственный интеллект и победит? Ранее мы уже создали семантическую карту цветов, позволяющую отличать приятные цвета от неприятных.

—  Когда вы всему научите искусственный интеллект, и он вступит в эмоциональный и интеллектуальный контакт с человеком, как это можно будет использовать?

— Я думаю, что это будет использовано повсюду. Через три года, а то и раньше, все интеллектуальные средства, даже операционная система компьютера или смартфона, будут обладать элементами эмоционального интеллекта. Смартфоны уже сейчас позволяют нам в сообщениях передавать эмоции, и даже распознают их на лице человека. Я не знаю, насколько это полезно, но может быть, это нравится людям. 

Я отчасти даже доволен, что все повально увлечены глубокими нейросетями, потому что если бы они, так же как и я, увлеклись когнитивными архитектурами, мне бы пришлось заниматься чем-то другим. 

—  Вы не боитесь, что эмоционально обученная машина в какой-то момент начнет проявлять не те эмоции, которые от нее ждут, и скажет: "У меня нет настроения работать"? 

— Хотите верьте, хотите нет, но на Западе исследователи ставят именно такую цель – создать интеллектуальные агенты, которые способны восстать против своего хозяина. Считается, что это полезно, потому что иначе они не смогут отказаться от глупых заданий. 

Когда я услышал об этом впервые от своего шефа четыре года назад, я спросил: "Чем это отличается от лифта, который не едет, когда вы нажимаете кнопку?" Он рассмеялся и сказал: "Надеюсь, что в нашем здании такого не случится". 

—  Нет ли здесь какой-то опасности? 

Искусственный интеллект. Иллюстрация дизайнера Mopic
Глава Baidu призвал не бояться эры искусственного интеллекта
— Нет, во всяком случае, связанной с искусственным интеллектом. Опасность в другом – все эти гиганты вроде Google и Microsoft заставят нас думать так, как думают их нейросети, и мы утратим способность мыслить по-человечески. Но это будет дело рук людей, а не искусственного интеллекта. 

—  А каких-нибудь приятных для человечества открытий в этой сфере вы ждете в ближайшие годы? 

— Да, конечно. Я думаю, многие сейчас ждут "большого прорыва" в искусственном интеллекте. По-моему, для этого прежде всего должно измениться отношение человека к искусственному интеллекту. Недавно на лекции меня спросили: "Зачем искусственному интеллекту эмоции, если нам от него нужно только, чтобы он наилучшим образом решил поставленную перед ним задачу?" Я считаю, что именно в такой постановке вопроса и кроется ошибка: искусственный интеллект должен сам найти задачу, которую нужно решить, и должен сам поставить ее. При этом он должен восприниматься нами как интеллектуально равный партнер, с которым можно взаимодействовать как с равным, на принципах доверия и взаимопонимания. 

Находясь под контролем человека, искусственный интеллект все же должен действовать в значительной степени самостоятельно. Или он должен быть неким дополнением человека, его ассистентом или расширением человеческого мозга.

Наука в университете
Комментарии
2 пользователя оставили 2 комментария
Ну Гугл уже ограничил использование нейросети. Ведь нейросеть мыслит логично. А с логикой у них последнее время не то.
Я бы из этого режима не выходила с годик...))
Наверх
Авторизация
He правильное имя пользователя или пароль
Войти через социальные сети
Регистрация
E-mail
Пароль
Подтверждение пароля
Введите код с картинки
He правильное имя пользователя или пароль
* Все поля обязательны к заполнению
Восстановление пароля
E-mail
Инструкции для восстановления пароля высланы на
Смена региона
Идет загрузка...
Произошла ошибка... Повторить
правила комментирования материалов

Регистрация пользователя в сервисе РИА Клуб на сайте Ria.Ru и авторизация на других сайтах медиагруппы МИА «Россия сегодня» при помощи аккаунта или аккаунтов пользователя в социальных сетях обозначает согласие с данными правилами.

Пользователь обязуется своими действиями не нарушать действующее законодательство Российской Федерации.

Пользователь обязуется высказываться уважительно по отношению к другим участникам дискуссии, читателям и лицам, фигурирующим в материалах.

Публикуются комментарии только на тех языках, на которых представлено основное содержание материала, под которым пользователь размещает комментарий.

На сайтах медиагруппы МИА «Россия сегодня» может осуществляться редактирование комментариев, в том числе и предварительное. Это означает, что модератор проверяет соответствие комментариев данным правилам после того, как комментарий был опубликован автором и стал доступен другим пользователям, а также до того, как комментарий стал доступен другим пользователям.

Комментарий пользователя будет удален, если он:

  • не соответствует тематике страницы;
  • пропагандирует ненависть, дискриминацию по расовому, этническому, половому, религиозному, социальному признакам, ущемляет права меньшинств;
  • нарушает права несовершеннолетних, причиняет им вред в любой форме;
  • содержит идеи экстремистского и террористического характера, призывает к насильственному изменению конституционного строя Российской Федерации;
  • содержит оскорбления, угрозы в адрес других пользователей, конкретных лиц или организаций, порочит честь и достоинство или подрывает их деловую репутацию;
  • содержит оскорбления или сообщения, выражающие неуважение в адрес МИА «Россия сегодня» или сотрудников агентства;
  • нарушает неприкосновенность частной жизни, распространяет персональные данные третьих лиц без их согласия, раскрывает тайну переписки;
  • содержит ссылки на сцены насилия, жестокого обращения с животными;
  • содержит информацию о способах суицида, подстрекает к самоубийству;
  • преследует коммерческие цели, содержит ненадлежащую рекламу, незаконную политическую рекламу или ссылки на другие сетевые ресурсы, содержащие такую информацию;
  • имеет непристойное содержание, содержит нецензурную лексику и её производные, а также намёки на употребление лексических единиц, подпадающих под это определение;
  • содержит спам, рекламирует распространение спама, сервисы массовой рассылки сообщений и ресурсы для заработка в интернете;
  • рекламирует употребление наркотических/психотропных препаратов, содержит информацию об их изготовлении и употреблении;
  • содержит ссылки на вирусы и вредоносное программное обеспечение;
  • является частью акции, при которой поступает большое количество комментариев с идентичным или схожим содержанием («флешмоб»);
  • автор злоупотребляет написанием большого количества малосодержательных сообщений, или смысл текста трудно либо невозможно уловить («флуд»);
  • автор нарушает сетевой этикет, проявляя формы агрессивного, издевательского и оскорбительного поведения («троллинг»);
  • автор проявляет неуважение к русскому языку, текст написан по-русски с использованием латиницы, целиком или преимущественно набран заглавными буквами или не разбит на предложения.

Пожалуйста, пишите грамотно — комментарии, в которых проявляется пренебрежение правилами и нормами русского языка, могут блокироваться вне зависимости от содержания.

Администрация имеет право без предупреждения заблокировать пользователю доступ к странице в случае систематического нарушения или однократного грубого нарушения участником правил комментирования.

Пользователь может инициировать восстановление своего доступа, написав письмо на адрес электронной почты moderator@rian.ru

В письме должны быть указаны:

  • Тема – восстановление доступа
  • Логин пользователя
  • Объяснения причин действий, которые были нарушением вышеперечисленных правил и повлекли за собой блокировку.

Если модераторы сочтут возможным восстановление доступа, то это будет сделано.

В случае повторного нарушения правил и повторной блокировки доступ пользователю не может быть восстановлен, блокировка в таком случае является полной.

Чтобы связаться с командой модераторов, используйте адрес электронной почты moderator@rian.ru или воспользуйтесь формой обратной связи.

Заявка на размещение пресс-релиза
Компания
Контактное лицо
Контактный телефон или E-mail
Комментарий
Введите код с картинки
Все поля обязательны к заполнению. Услуга предоставляется на коммерческой основе.
Заявка успешно отправлена