Ученый: искусственный интеллект приведет к сознательной архаизации жизни

Александр Кулешов, ректор Сколтеха

МОСКВА, 27 ноя – РИА Новости. Академик Александр Кулешов рассказал в "Роснано" о том, насколько близко человечество к созданию самосовершенствующихся машин, к чему приведет их создание и то, был ли прав Стивен Хокинг, опасающийся тех проблем, которые несут за собой разумные машины.

Александр Кулешов – один из ведущих отечественных специалистов в деле создания нейросетей, искусственного интеллекта и сложных систем обработки информации. Сейчас он возглавляет Сколковский институт науки и технологий, а до февраля этого года возглавлял Институт проблем передачи информации РАН.

В эту пятницу академик Кулешов выступил с лекцией в стенах госкорпорации "Роснано", на которой он рассказал слушателям, в том числе Анатолию Борисовичу Чубайсу, о прогрессе в сфере создания искусственного интеллекта в последние годы и о том, как технологии ИИ изменят наше общество уже через несколько лет.

"Чужой" или человеческий интеллект?

"Почему искусственный интеллект и "умная" обработка данных сегодня привлекают так много внимания? Что произошло? Данные, на самом деле, обрабатывались всегда. Еще со времен Галилея результаты научных экспериментов обрабатывались (математически). Что сегодня случилось нового, что вытолкнуло эту проблему на передний план?", — начал свой рассказ ректор "Сколтеха".

Как отмечает академик Кулешов, изменился объем данных, с которыми сегодня работает человек и компьютеры – сейчас компьютерные программы собирают, хранят и обрабатывают терабайты и петабайты данных, обработка которых при помощи традиционных систем анализа информации крайне сложна.

Люди, к примеру, операторы АЭС или пилоты самолетов, имеют доступ к десяткам или даже сотням экранов с различной диагностической информацией, каждый из которых почти ничего не значит сам по себе, и не поможет найти ошибку в работе оборудования, но комбинация которых почти со 100% вероятностью позволит раскрыть проблему еще до того, как она достигнет критической стадии. 

Британский ученый Стивен Хокинг. Архивное фото
Хокинг: неконтролируемый искусственный интеллект будет трудно остановить

Естественно, продолжает ученый, что человек не способен одновременно следить за 50 экранами, что порождает необходимость создания систем, которые анализировали бы эти данные и выводили на один экран только то, что действительно важно для принятия решений и мониторинга ситуации.

"Абсолютно новые математические системы, появившиеся для анализа таких "больших данных", выросли за их пределы, и они применимы для анализа любой информации при помощи любых технических средств. На самом деле, они бы и в 17 веке были бы новыми и пригодились бы ученым того времени. Но я подчеркиваю, что все это появилось именно на волне новых технологий", — продолжает Кулешов.

Большая часть дискуссий вокруг этих технологий, как отмечает академик, произрастает из того факта, что существует разница между русским словом "интеллект" и английским словом intelligence, которая заставляет многих участников этих споров считать, что искусственный интеллект должен быть некой антропоморфной конструкцией, напоминающей и имитирующей свойства интеллекта человека. На самом деле, по словам Кулешова, последние 25-30 лет исследований показывают, что подобный подход ошибочен и не ведет к значимым результатам, применимым на практике.

"Антропоморфность и природоподобность – популярные термины, однако за минувшие века ничего никогда не получалось. К примеру, Леонардо да Винчи рисовал механических коней, Дедал и Икар пытались летать, как птички, однако ничего никогда не получалось – по нашим улицам сейчас бегают совсем не механические кони, и летаем мы иначе. То же самое с мозгом – те попытки понять, как устроен мозг, и сделать то же самое в компьютере, полностью провалились", — добавляет лектор.

Все эти неудачные попытки сделать рукотоворные аналоги нейронов и соединить их в некое подобие мозга, а также прочие подходы, имитирующие работу нервной системы человека и то, как мы принимаем решения и анализируем информацию, привели к тому, что в 90-тых годах прошлого века фраза "искусственный интеллект" среди математиков стала ругательным словом из-за тех необоснованных ожиданий, которые за собой несли антропоморфные представления о нейросетях и искусственном интеллекте.

Глубины интеллекта

Фактически, ренессанс разработок "искусственного интеллекта" начался совсем недавно, в конце 2000 годов, когда ряд американских и российских математиков и программистов предложили и реализовали алгоритмы ИИ, которые в последствии стали называться методами "глубинного обучения" и методами "обучения на базе многообразий".

"В конце концов, о нейронных сетях начали забывать, стало понятно, что ничего не получается с ними, и все как-то пропустили публикацию в 2005 году статьи Хинтона и Крижевского, которая сейчас определяет наше будущее. Я тоже участвовал в этих "похоронах", но оказалось, что не все так просто", — объясняет ученый.

Как оказалось, простые нейронные сети, объединенные в каскады и сложные системы из различно устроенных сетей, ведут себя не так, как ожидали ученые. И, как показала практика, они способны решать те задачи, которые раньше искусственному интеллекту не были под силу, в том числе распознавание речи, фотографий людей, различных объектов и даже предсказание поломок и катастроф.

"Возникла совершенно уникальная ситуация – никто сегодня не может сказать, как работают глубокие нейронные сети. Американское оборонное агентство DARPA готово выдать премию в миллион долларов за объяснение того, как они работают, но я так полагаю, что эта премия в ближайшие лет 30-40 останется невостребованной. Я знаю очень серьезных математиков, которые бьются над этой задачей без малейшего успеха. Мы, можно сказать, вернулись к временам натурфилософии – есть некий способ, который фантастически хорошо работает, но мы не можем объяснить, почему", — рассказывает Кулешов. 

Работа таможенного поста ФТС России. Архивное фото
Искусственный интеллект научится определять преступников на границе

Глубинные нейронные сети, говорит ученый, давно догнали и обогнали человека во многих областях знаний, умея определять и различать такие вещи, которые обычному, нетренированному человеку просто не под силу. Самые последние версии подобных нейросетей совершают меньше ошибок, чем люди, натренированные решать те задачи, за которые будут отвечать подобные системы ИИ в будущем.

К примеру, ученые уже создали нейросети, способные описывать происходящее на фотографиях и в видеороликах не хуже, чем это делает человек. Подобные алгоритмы могут помочь слепым или глухим людям понимать то, что происходит вокруг них и что они не могут услышать или увидеть, а спецслужбы смогут использовать такие сети для поиска террористов или подозреваемых в архивах видеонаблюдений или при оперативной работе в аэропортах и прочих местах скопления людей.

"В мире сегодня работает около 70 миллионов инженеров-конструкторов, и статистика показывает, что лишь 20% продуктов их деятельности является какими-то новыми разработками. Остальные 80% были или уже созданы другими инженерами, или являются незначительными доработками уже существующих моделей. Создание системы ИИ, способной находить то, что вам нужно, резко сократит то время и ресурсы, которые обычно тратятся на их разработку. Пока таких систем нет, но уже через 1-2 года они появятся", — продолжает академик.

По его словам, другим примером подобных систем является программа, разработанная аспирантами Кулешова, позволяющая определять, есть ли у человека болезнь Альцгеймера или нет, изучая фотографии его мозга, полученные при помощи магнитно-резонансного томографа.

Всего 200 снимков МРТ людей, страдающих от этой болезни, российским ученым хватило для того, чтобы "научить" искусственный интеллект различать здоровый и больной мозг с 90% точностью. Схожим образом российские математики научились находить язвы в желудке человека по его электрокардиограмме.

В сотрудничестве и по заказу с РКК "Энергия", Кулешов и его коллеги создали новый революционный алгоритм управления двигателями МКС, который позволит сократить расходы топлива на поддержание высоты станции в примерно 40 раз по сравнению с текущей программой, созданной американскими учеными для замены старой российской системы, и в пять раз лучше готовящейся программы НАСА. 

Скрипка, архивное фото
Искусственный интеллект от Google сочинил свою первую мелодию

Новая система, основанная на технологиях "обучения на базе многообразий", будет проверена на борту станции уже в следующем году. Другая система ИИ, созданная российскими математиками и программистами, уже сейчас работает в РЖД и помогает определить, какие поломки стоит починить в первую очередь для минимизации расходов ресурсов.

Похожие программы, как рассказывает ученый, иногда используются и для самых неожиданных целей – к примеру, ИИ, созданный для просчета крыльев самолетов, используется компанией Louis Vuitton для создания кремов для отбеливания кожи.

"Дальнейшее развитие этих технологий радикально поменяет жизнь человека. Представьте себе, вы выходите из зарубежной гостиницы, вас случайно фотографируют туристы, этот снимок попадает в поисковую систему, она вас "вычисляет" на этих снимках и через пять минут ваш начальник об этом узнает. В результате вам будет очень сложно убедить его в том, что вы поехали в "местную" командировку", — объясняет Кулешов.

Аугментированная архаическая реальность

Первые примеры этого "нового, чудного мира" существуют уже сегодня – им является система ИИ AlphaGo, обыгравшая в этом году чемпиона мира по Го. Как объясняет Кулешов, она является первым примером уникального класса машин, способных решать невычислимые задачи и совершенствовать самих себя.

"Го отличается от шахмат тем, что данную игру просто невозможно математически просчитать. Число возможных ходов в Го превышает число атомов во Вселенной, невозможно тупо пересчитать ходы в ней. В шахматах, если у вас есть мощный компьютер, то вы обыграете любого, и Каспарова, и Карякина. В Го такое невозможно, потому что ни один компьютер не может это сделать. А нейросеть смогла решить эту задачу", — рассказывает ученый.

Главной отличительной чертой AlphaGo от всех остальных систем ИИ является то, что эта программа умеет играть сама с собой и самосовершенствоваться, приспосабливаясь к сопернику и находя абсолютно нетривиальные и неожиданные для человека пути обыграть его. 

"Почему я на этом останавливаюсь – это первый шаг в совершенно таинственное будущее. Как родился AlphaGo? Сначала его создатели собрали базу из 30 миллионов разных игровых позиций, и натренировали на ней первичную нейронную сеть. Затем они ее дублировали, и вторая сеть начала играть с первой. И в результате, через несколько миллиардов итераций, возникло нечто третье, что человек уже не контролирует. Непонятно, откуда оно взялось — это результат некой самопостройки. Как происходит она, никому неизвестно", — подчеркивает Кулешов.

Рождение AlphaGo и его победа, как считает академик, открывает дверь в совершенно новое пространство, в которое человечество вступит очень быстро. И не все в этом мире будет полезным и приятным для человечества в целом и отдельных людей в частности. 

Доска для игры Го
Искусственный интеллект Google впервые обыграл человека в игру Го

"Совершенно очевидно, что социальные сдвиги от этого будут громадными. Число работников средней квалификации уже сегодня сокращается как шагреневая кожа, и появление ИИ, способных решать эти задачи, лишит их работы. Все эти инженеры, таксисты, пилоты, медсестры, рабочие – миллионы людей – должны будут исчезнуть, и только 1%, как показывают текущие исследования, может приспособиться к новым реалиям и переучиться", — рассказывает ученый. 

По его словам, "мы стоим на грани совершенно чудовищных социальных последствий от развития систем искусственного интеллекта. Мы сейчас не можем оценить их масштаб, подобно людям, находящимся в центре урагана или на пике революции. Деньги сейчас нужно срочно вкладывать в образование, так как люди средней квалификации становятся совершенно ненужными".

Как отмечает ректор Сколтеха, мир сегодня в состоянии прокормить все человечество, но он не в состоянии его занять. Эта безработица и отсутствие цели в жизни могли уже отразиться на жизни Европы и других развитых стран и породить различные радикальные движения, подобные ИГ и прочим запрещенным экстремистским и религиозным группировкам.

"Это сознательная архаизация жизни, создание ситуации, в которой я буду ощущать себя нужным. Черт с ним, что я живу хуже, но зато я живу не как все. Ощущение того, что тебе постоянно бесплатно присылают фастфуд и дают кроссовки раз в полгода, но при этом ты ни для чего не нужен, на самом деле ужасное. И ощущение это будет только нарастать по мере развития ИИ и робототехники", — продолжает Кулешов.

Заметная часть этой проблемы связана с тем, что человек просто не успевает "эволюционировать" вслед за ИИ – поколения людей сменяются каждые 25 лет, а технологические революции происходят с интервалом в 5-6 лет. Поэтому, как отмечает ректор, число "ненужных" людей будет постоянно расти, и только массовое образование может помочь избежать социального взрыва и появления новой волны луддитов.

"У того, на пороге чего мы стоим, сейчас еще нет названия, и я даже не знаю, как это можно назвать. Наверное, их можно назвать "неуправляемыми интеллектуальными системами". Это принципиально новые системы, генерирующие сами себя, и мы совсем недалеко от того времени, когда они начнут проникать в нашу жизнь", — заключает ученый.

РИА Наука
Обсуждение
33 пользователя оставили 84 комментария
  • AlphaGo не только училось, но еще и проигрывало. Чтобы ИИ смог заменить человека во всем, ему придется тоже проигрывать, чтобы набирать отрицательный опыт и искать приемлемое решение. Это означает много аварий, неправильно поставленных диагнозов и незапланированных смертей людей. Научить ИИ сразу принимать правильные решения мы не сможем, т.к. надо будет знать как он принимает решения. А это даже на текущий момент развития нейросетей не представляется возможным.
    11:18
    27.11.2016
  • Уже сегодня роботизация производства высвобождает больше работников, чем создаёт новых рабочих мест.
    Когда-то с возникновением капитализма имущественное расслоение общества снизилось, но, потом начало нарастать и достигло пика к 1914 году. Закончилось это Первой мировой, революциями и Второй мировой.
    В 1950-х годах богатым принадлежало 35%-40% богатства. Но, с ростом производительности труда, прибыль богатых увеличивается быстрее зарплаты работников.
    Сегодня имущественное расслоение сравнялось с 1914 г. - Грустно и страшно это.
    11:14
    27.11.2016
  • gala_gran в ответ пользователю simon310(показатьскрыть)
    simon310, спасибо за понимание. Голос разумного человека, а то такое пишут, что страшно становится. Правда могу предположить. что это гуманитарии.
    18:49
    28.11.2016
  • gala_gran в ответ пользователю ПартОгр -(показатьскрыть)
    ПартОгр -, твёрдый "неуд" академику. Устарел он несколько, а работа в Сколково не показатель. такое чувство, что это реклама аспирантуре академика.
    18:51
    28.11.2016
  • gala_gran в ответ пользователю berezin_77(показатьскрыть)
    berezin_77, не правительство. а сами граждане.
    18:53
    28.11.2016
  • иван иванов первый, а Вы наверное оракул, раз уже знаете какие программы придумает для себя ИИ?
    20:26
    28.11.2016
  • сергей в ответ пользователю rskomi(показатьскрыть)
    не знаю где можно прочесть что "ни как человеческие поступки,мысли логически друг с другом не связаны" Утверждение сомнительное. Мысли и поступки должны быть логически связаны иначе это расстройство психики. Человек логически мыслит,ставит себе задачи (краткосрочные и долгосрочные.от самых простых до сложных.Например он в логической последовательности ставит себе задачи под поступи ,действия-например пойти на работу.Тут много логически построенных его мышлением задач ) и в последствии на основе логики старается своими поступками их достичь
    А по поводу написанного -Вы утверждаете что искусственный интеллект в принципе невозможен -но учёные с мировыми именами не считают также. А по поводу "особенностей " человека
    -у человека есть память -и у техники есть память.
    -У человека есть мышление- у техники есть возможность обрабатывать информацию
    У человека есть рефлексы,инстинкты- простейшие заложенные программы призванные обеспечить наше функционирование и "обновление" в новой доработанной модели.
    20:30
    28.11.2016
  • сергей в ответ пользователю rskomi(показатьскрыть)
    Вы не назвали человеческие эмоции .Это самое казалось бы сложное для перенесения на технический уровень.А что если это те же заложенные природой программы призванные обеспечить необходимое восприятие, реакцию.Необходимость в этом ,в перестройке организма,его мыслительных реакций, могла быть выработана природой.Эти "эмоции" я бы отчасти отнёс как раз к программному обеспечению заложенному природой.Вы не просто провели анализ и пришли к выводу а в это начинает "вмешиваться" что то глубинное,заложенное.
    Злость, есть выделение веществ в организме вызывающее перестройку организма под возможность активного реагирования на негативно воспринятый внешний объект,событие.
    Жалость. возможно та же перестройка организма под определённое реагирование на какое то объект,событие.Это могло быть выработано в виду того что человек существо общественное. Существующее в кругу общности каких же людей.Противоположность,отсутствие такой перестройки организма под "жалость к" могло вызывать потерю некоторого количества представителей вида (ослабленных повреждённых или оказавшихся в угрожающей ситуации) что в итоге отражалось на численности и распространению. и тд
    У машин нет (пока ) способности ставить себе новые самостоятельно сформулированные на основе обработанной информации задачи.
    А по поводу принципиальной возможности то по оценке некоторых учёных она появится по мере увеличения возможностей процессора и доступной ему заложенной в память информации .
    20:43
    28.11.2016
  • сергей в ответ пользователю Serg.ham(показатьскрыть)
    Serg.ham,Вы мировые войны относите к предрасположенности к самоуничтожению? А если посмотреть на это с другой стороны? что если часть людей как раз стремится через уничтожение другой части людей убрать для себя предполагаемую угрозу. Если общность добивается победы стало быть она более сплочена,более интеллектуально развита.Говорят что действительно продвинутая внеземная цивилизация по природе не может быть агрессивной,враждебной .Как к другим цивилизациям и внутри своей..Но если она продвинута она должна была эволюционировать и в процессе происходит подавление менее развитых.Это относится к существам на земле.Даже внутри человеческой цивилизации это имело место.
    А по поводу виновных в возникновении кризисов-говорят что жизнь борьба,вот и боремся.
    20:56
    28.11.2016
  • сергей в ответ пользователю Loki861224 .(показатьскрыть)
    Loki861224 ., возможно не то чтобы не нужными а примитивными и в виду того угрожающими ии. Как оказаться в клетке с гориллами. Не то чтобы они не нужны но их физический потенциал способен угрожать вашему существованию и вы не сможете спокойно к этому относится в виду того что их примитивное мышление способно быть угрозой,вы их не убедите,не договоритесь.
    Вопрос в том будет ли ии пытаться себя обезопасить и по какой причине
    21:06
    28.11.2016
  • сергей, Но у машины нет чувств! Радость, гнев, тоска, злость, импульсивность, страх и т.д... и главное - человек умеет ошибаться!
    22:47
    28.11.2016
  • Никакой ИИ не сравнится с человеческим мозгом если тот сможет использовать не 2%, а все 100% своих клеток. Если человек научится использовать мозг на все 100 процентов, то станет магом, способным преобразовывать реальность с помощью мысли, а это не под силу никакому искусственному интеллекту! Не правильнее ли двигаться в направлении развития собственных возможностей человека?
    22:57
    28.11.2016
  • Лев Чуваев, А Вы знаете логические размышления приводят к мысли,что ДНК-программа всего живого создана искусственно. Ведь это выглядит полной чушью,что какие-то сгустки аминокислот станут создавать программы,устройства для их размещения , органы восприятия и механизмы реагирования на раздражители и причем делать это одновременно и по сути мгновенно,иначе бы им долго не просуществовать. Проще представить,что обезьяна сядет за клавиатуру и с первой попытки отпечатает Евгения Онегина.
    23:03
    28.11.2016
  • иван иванов первый, А это свидетельствует о том, что место создателя искусственного интеллекта уже занято и не надо изображать из себя бога (создателя), а то ведь может прилететь звездюлина от настоящего автора! В любом случае, человек, создающий ИИ, является "обезьяной с гранатой".
    00:07
    29.11.2016
  • Лев Чуваев, Полностью согласен!
    00:20
    29.11.2016
  • berezin_77 в ответ пользователю gala_gran(показатьскрыть)
    gala_gran, "ученый должен быть нищим и не иметь семьи" (с) - это сказано примерно 2-2,5 тыс. лет назад (не помню точно, давно читал) по поводу брахманов в Индии. И это правильное высказывание, потому что намного легче заработать 50-100-200 тыс. р. в месяц, чем написать хотя бы плохонькую диссертацию или создать что-то новое в обработке данных, процессах, железе.
    Т.е. должна быть поддержка на государственном уровне людей в науке, инженерии и т.п., чтобы не было так, что стандартный купи-продай, которого реально заменить на ларек-автомат+банальный сайт в интернете, смеялся бы над такими людьми. Знаю не одного инженера, который работает продажником.
    "Сами граждане" сделают в этом случае очевидный выбор, и именно правительство должно думать не на сегодня-завтра, а хотя бы лет на 20 вперед. У нас предприятия в среднем живут 7 лет (смотрите статистику), что уж говорить о гражданах? Для гражданина ситуация вообще каждые 2-3 года новая - и идти в такой ситуации в науку?
    06:41
    29.11.2016
  • rskomi в ответ пользователю сергей(показатьскрыть)
    А вы не сомневайтесь, это уже давно объективный факт. Ваша позиция любым путём настоять на своих, часто абсурдных выводах, мне давно знакома. Только то, что машина это программа написанная человеком, только то, что в машине все действия логически связаны между собой ИИ невозможен, сомневаться в этом может чел, насмотревшийся Терминахтеров, вы из этих?
    07:20
    29.11.2016
  • rskomi в ответ пользователю сергей(показатьскрыть)
    сергей, Да ты бы не старался, я же дал совет, пошушарь в интернете, там уже давно было сказано и доказано ПОЧЕМУ ИИ невозможен, спорить просто глупо.
    07:28
    29.11.2016
  • Лев Чуваев, серьёзно? способен ошибаться и по этому ии не возможен?если у человеческого процессора возникают продлены с решением задач то это недостатки процессора.Они могут возникать по различным причинам в числе которых может быть "конфликт программного обеспечения".
    По поводу чувств я написал в комментарии на который вы ответили.
    Гнев (ярость) например это реакция организма на воспринятый какой то внешний раздражитель.Идёт выделение в организме гормонов.Считается, что норадреналин - гормон ярости, Норадреналин возбуждает в человеке чувство злобы, гнева, ярости, вседозволенности.Идет перестройка восприятия .Выделение адреналина также оказывает воздействие на человека. Сознание суживается под реакцию на объект. Идут "программы на активное воздействие на объект" .
    Эти "чувства" это программы заложенные природой. Злость ,страх,радость,импульсивность -есть и у животных и они не могут считаться чисто человеческими особенностями делающими его "уникальным".
    20:16
    29.11.2016
  • Лев Чуваев, Вы лично используете только 2 % клеток мозга?
    На самом деле все разговоры о 2 % не считаются научно обоснованными.
    Интеллект действительно можно развивать при помощи упражнений[8], но сама мысль о том, что люди используют только часть мозга, неверна. По современным данным, каждая часть мозга имеет определённую функцию. В процессе исследований не были найдены области мозга, которые не были бы задействованы.
    ----Согласно современным научным данным, эволюция обычно устраняет лишнее, а мозг обходится телу довольно "дорого" в плане потребления кислорода и питательных веществ. Он может требовать до 20 % всей энергии тела, при этом составляя лишь 2 % массы (вы не перепутали процент массы с процентом используемых клеток головного мозга?). Если бы 90 % были не нужны, люди с меньшим, более эффективным мозгом имели бы эволюционное преимущество — остальным сложнее было бы проходить естественный отбор. Отсюда также очевидно, что такой большой мозг не мог бы даже появиться, если бы в нём не было потребности. Кроме того увеличенный череп повышает риск смерти при рождении. Такое давление обязательно избавило бы популяцию от лишнего мозга.
    ----Сканирование: технологии вроде позитронно-эмиссионной томографии и функциональной магнитно-резонансной томографии позволяют наблюдать работу живого мозга. Они показали, что даже во время сна в мозге имеется некая активность. «Глухие» зоны появляются лишь в случае сильных повреждений.
    20:26
    29.11.2016
  • Лев Чуваев,
    ---Локализация функций мозга: вместо того чтобы быть единой массой, мозг делится на отделы, которые выполняют различные функции. На определение функций каждого отдела были потрачены многие годы, и отделений, не выполняющих никаких функций, обнаружено не было.
    ---Микроструктурный анализ: при регистрации деятельности отдельных нейронов учёные наблюдают за жизнедеятельностью отдельно взятой клетки.
    ---Нейронные заболевания: клетки мозга, которые не используются, имеют тенденцию вырождаться. Следовательно, если 90 % мозга были бы неактивны, то вскрытие мозга взрослого человека показало бы масштабное вырождение.
    20:27
    29.11.2016
  • сергей в ответ пользователю rskomi(показатьскрыть)
    rskomi, Программы (именно) пишутся человеком (пока) .Но и его (человека) "программа" прописана эволюционным путем,развитие привело к возникновению человеческого интеллекта .И получив изначально не сильно развитый интеллект человек уже отчасти сам работает над развитием его. "прописывает" себе новые "программы", ставит задачи.И именно об само совершенствующейся машине и говорит академик РАН.
    А по поводу логической взаимосвязи я уже ответил что у человека тоже есть логическая взаимосвязь его действий.Противоположность тому тяжёлое психическое расстройство.
    У Вас не хватает возможностей чтобы аргументированно оппонировать противоположной вашей точке зрения и Вы сами прибегаете к примитивному приёму в постановке вопроса о сомнении в интеллекте собеседника? Зачем "терминахтеры" приводить вместо аргументов?
    Вы способны привести хотя бы один аргумент который мог бы опровергнуть "моё " утверждение.
    20:54
    29.11.2016
DirectAdvert





Наверх
Авторизация
He правильное имя пользователя или пароль
Войти через социальные сети
Регистрация
E-mail
Пароль
Подтверждение пароля
Введите код с картинки
He правильное имя пользователя или пароль
* Все поля обязательны к заполнению
Восстановление пароля
E-mail
Инструкции для восстановления пароля высланы на
Смена региона
Идет загрузка...
Произошла ошибка... Повторить
правила комментирования материалов

Регистрация пользователя в сервисе РИА Клуб на сайте Ria.Ru и авторизация на других сайтах медиагруппы МИА «Россия сегодня» при помощи аккаунта или аккаунтов пользователя в социальных сетях обозначает согласие с данными правилами.

Пользователь обязуется своими действиями не нарушать действующее законодательство Российской Федерации.

Пользователь обязуется высказываться уважительно по отношению к другим участникам дискуссии, читателям и лицам, фигурирующим в материалах.

Публикуются комментарии только на тех языках, на которых представлено основное содержание материала, под которым пользователь размещает комментарий.

На сайтах медиагруппы МИА «Россия сегодня» может осуществляться редактирование комментариев, в том числе и предварительное. Это означает, что модератор проверяет соответствие комментариев данным правилам после того, как комментарий был опубликован автором и стал доступен другим пользователям, а также до того, как комментарий стал доступен другим пользователям.

Комментарий пользователя будет удален, если он:

  • не соответствует тематике страницы;
  • пропагандирует ненависть, дискриминацию по расовому, этническому, половому, религиозному, социальному признакам, ущемляет права меньшинств;
  • нарушает права несовершеннолетних, причиняет им вред в любой форме;
  • содержит идеи экстремистского и террористического характера, призывает к насильственному изменению конституционного строя Российской Федерации;
  • содержит оскорбления, угрозы в адрес других пользователей, конкретных лиц или организаций, порочит честь и достоинство или подрывает их деловую репутацию;
  • содержит оскорбления или сообщения, выражающие неуважение в адрес МИА «Россия сегодня» или сотрудников агентства;
  • нарушает неприкосновенность частной жизни, распространяет персональные данные третьих лиц без их согласия, раскрывает тайну переписки;
  • содержит ссылки на сцены насилия, жестокого обращения с животными;
  • содержит информацию о способах суицида, подстрекает к самоубийству;
  • преследует коммерческие цели, содержит ненадлежащую рекламу, незаконную политическую рекламу или ссылки на другие сетевые ресурсы, содержащие такую информацию;
  • имеет непристойное содержание, содержит нецензурную лексику и её производные, а также намёки на употребление лексических единиц, подпадающих под это определение;
  • содержит спам, рекламирует распространение спама, сервисы массовой рассылки сообщений и ресурсы для заработка в интернете;
  • рекламирует употребление наркотических/психотропных препаратов, содержит информацию об их изготовлении и употреблении;
  • содержит ссылки на вирусы и вредоносное программное обеспечение;
  • является частью акции, при которой поступает большое количество комментариев с идентичным или схожим содержанием («флешмоб»);
  • автор злоупотребляет написанием большого количества малосодержательных сообщений, или смысл текста трудно либо невозможно уловить («флуд»);
  • автор нарушает сетевой этикет, проявляя формы агрессивного, издевательского и оскорбительного поведения («троллинг»);
  • автор проявляет неуважение к русскому языку, текст написан по-русски с использованием латиницы, целиком или преимущественно набран заглавными буквами или не разбит на предложения.

Пожалуйста, пишите грамотно — комментарии, в которых проявляется пренебрежение правилами и нормами русского языка, могут блокироваться вне зависимости от содержания.

Администрация имеет право без предупреждения заблокировать пользователю доступ к странице в случае систематического нарушения или однократного грубого нарушения участником правил комментирования.

Пользователь может инициировать восстановление своего доступа, написав письмо на адрес электронной почты moderator@rian.ru

В письме должны быть указаны:

  • Тема – восстановление доступа
  • Логин пользователя
  • Объяснения причин действий, которые были нарушением вышеперечисленных правил и повлекли за собой блокировку.

Если модераторы сочтут возможным восстановление доступа, то это будет сделано.

В случае повторного нарушения правил и повторной блокировки доступ пользователю не может быть восстановлен, блокировка в таком случае является полной.

Чтобы связаться с командой модераторов, используйте адрес электронной почты moderator@rian.ru или воспользуйтесь формой обратной связи.