×
Skolkovo Robotics 2016. Сессия «Естественный и/или Искусственный интеллект»: философия, морфология, диалектика

JSON.TV публикует расшифровку круглого стола «Естественный искусственный интеллект» в рамках конференции Skolkovo Robotics 2016. Участники дискуссии: Nikolaos Mavridis, Иннополис/IRML Lab; Иван Лаптев, INRIA Paris/VisionLabs и Manohar Paluri, Facebook AI Research. Модератор – Михаил Бурцев, МФТИ.

 

Ключевые вопросы для обсуждения: Развитие нейронных сетей или чему природа нас может научить? Взаимосвязь и различия естественного (природного), искусственного и потенциального (фактологического) интеллекта. Коллективный машинный интеллект. Является ли искусственный интеллект продолжением эволюционного? Сможет ли человечество контролировать экспоненциальный рост машинного интеллекта, обретет ли он способность самостоятельно учиться и адаптироваться? Целеполагание как разграничитель.

 

Смотрите запись сессии Native Artificial Intelligence на JSON.TV

 

Николаос Мавридис (Nikolaos Mavridis), PhD, профессор Университета Иннополис, руководитель Лаборатории Когнитивных Робототехнических Систем, профессор Нью-Йоркского Университета (NYU AD), основатель и директор IRML Lab: Мы начали видеть вмешательство человека собственно в процесс эволюции. Не то чтобы после появления генетики мы что-то так существенно изменили... Если вы посмотрите на эволюцию машин, артефактов, вы увидите часть этой цепочки. А сейчас я перейду, собственно, к такому вопросу. Есть то, что мы называем by analysis, by inspiration мы можем копировать какие-то природные моменты. Когда имеет смысл копировать? Ответ такой: иногда. Конечно, ответ не очень удовлетворительный. Давайте я приведу простой пример: как работает крыло, как работает гексапод? Мы можем создавать структуры, мы можем копировать природные скелеты. Есть случаи – например, нейронные сети: это некая абстракция того, как работает нейронная сеть, и мы применяем ее к алгоритмам. Затем — эволюционные алгоритмы. Но работает ли всё это? Работает ли такое копирование? Например, лучше ли это, чем другие методы? Смотрите, простые примеры того, когда это не работает. Мы тысячи лет пытались летать как птицы. Посмотрите на аппарат да Винчи. С того момента, как мы смогли оторваться от биологии — мы затем полетели, лет через 30-40.

 

Были ли определенные случаи, когда прямое копирование природы было непродуктивно? Если покопаться в этом, то почему иногда не нужно следовать природе? Потому что у природы другие материалы, чем у нас, другие процессы. Второе: есть определенные ограничения, связанные со следующим поколением. Если вы хотите, чтобы природная система развивалась, то следующее поколение не может радикально отличаться. Могут быть какие-то мутации, конечно, но это и всё. Номер 3: у природы другая палеология, другой набор целей. Искусственная система – например, самолет, – переводит пассажиров. Но, например, птица — по-другому — ищет пищу. Поэтому задачи искусственной системы существенно отличаются от задач природной системы. Потому что природе всегда нужно вот эту телеологию жизни в себе нести. И вот почему, наверное, не имеет смысла строго следовать природным структурам. Еще один момент: эволюционный алгоритм – да, конечно, это классный алгоритм, когда мы можем проводить параллельный поиск, но когда мы говорим об автоматическом анализе ограничений, это хуже, чем многие традиционные методы.

 

Еще одна история перед тем, как я закончу эту тему. Если вы хотите услышать более недавние истории искусственных систем... Смотрите: нейронные сети. Я часто говорю об этой истории для того, чтобы затем вывести другие наблюдения. Когда появилась идея нейронных сетей? В 1940-х годах. Изначальная была модель Мак-Каллока-Питтса, это модель «логических ворот». Достаточна ли эта модель – это зависит от того, какое описание вам нужно. Была ли это хорошая модель, чтобы использовать ее для искусственного обучения? Не очень. Поэтому это был самый первый этап. Затем второй этап, когда вы создаете некое электромеханическое устройство с определенными узлами. И затем был период анализа Марвина Минского, как это работает. Затем вопросы вероятности. И все исследования заморозились на 15 лет, все подумали, что это очень плохая идея только потому, что Минский решил, что эта сеть не может решать определенные проблемы. Это интересно.

 

Михаил Бурцев (модератор), к.ф.-м.н., зав. лаб. Нейронных сетей и глубокого обучения МФТИ: Но, кстати, у него есть докторская степень, как раз посвященная теме нейронных сетей, если я не ошибаюсь. И затем он принял решение, что тема была не перспективной для того, чтобы дальше ее разрабатывать. Интересный, конечно, такой феномен.

 

Николаос Мавридис: Да…Если вы хотите,  определенная такая иерархия... Затем через 15 лет люди поняли, что можно внести небольшие изменения, и нейронные сети могут приносить пользу. В 90-е годы эта тема опять подхватывается. 1995 год: внезапно люди опять вернулись к математическим аналитическим моделям. Если мы не можем понимать, что происходит в сетях, почему бы нам не вернуться к тому, что мы понимаем лучше, вернуться к статистическим моделям и не попытаться затем строить исследования на них? Затем в 2012 году возникает идея о Больших Данных, большие вычислительные мощности, очень дешевые. И тогда тема сетей опять появляется, с неким таким небольшим ребрендингом. Поэтому это может быть такая очень дидактическая история относительно того, как вопросы биомимикрии, в отличие от таких математических технологий... Мы идем то к одной модели, то к другой, то к одной, то возвращаемся опять к другой по мере того, как мы развиваемся. Что касается когнитивной науки — это не просто нейронная наука. Это контраст: когнитивная философия, лингвистика и искусственный интеллект. Конечно, есть связь между всеми этими вопросами. Потому что модели сознания можно... Например, модели, которые используют когнитивные специалисты, могут быть вдохновлены искусственным интеллектом, потому что было очень много исследований на его основе. Поэтому здесь есть такая обратная корреляционная зависимость.

 

Еще один момент, о котором вы говорили, — это интеллект. Что мы имеем в виду под интеллектом? Это человеческий интеллект: например, человек различает предметы, играет в карты, или что-то... Или это человеческий интеллект, или есть что-то еще, что выходит за пределы контекста человеческого интеллекта – некий общий интеллект. Поэтому это открытый вопрос: какое из трех определений нам больше подходит и нас интересует.

 

И, наконец, еще один момент. Есть потенциальный, или теоретический, интеллект, который имеет отношение к инференциям. То, что я хотел бы назвать фактологический интеллект. Важна не только машина с интеллектом. Если у нас есть актуаторы, какие-то сенсоры, мы ее сопрягаем с физическим миром, она его меняет, — тогда это машина, которая может достигать своей цели, и цель эта может быть выражена в каких-то физических реалиях. Поэтому я думаю, что это было бы очень интересной дискуссией. А именно: чему природа может научить нас и в этом направлении. В принципе, это всё, что я хотел сейчас озвучить. Я не буду озвучивать какие-то ответы, я лишь хотел бы немножко подумать об интеллекте на планете Земля, о том, как он развивался и к чему мы сегодня пришли. И — когда полезно использовать биомимикрию, когда не очень. Когда лучше ориентироваться на систему искусственного интеллекта, а не на эволюционные проблемы. Какая связь между природным интеллектом и искусственным интеллектом. И, наконец, каков потенциал теоретического интеллекта в отличие от действительного интеллекта? Каким образом мы можем менять мир с помощью актуаторов и датчиков и этого интеллекта. Спасибо большое.

 

 

Михаил Бурцев (модератор), к.ф.-м.н., зав. лаб. Нейронных сетей и глубокого обучения МФТИ: Иван, что вы скажете на тему взаимосвязи между природным и искусственным интеллектом?

 

Иван Лаптев, Директор по исследованиям INRIA Paris и VisionLabs: Если вернуться к тому, о чем вы говорили сейчас... Природный интеллект – это немножко даже сложный термин с точки зрения его определения. Я здесь согласен, да: обыграть человека в шахматы...

 

Михаил Бурцев: Кстати, что сложнее: дать понять искусственному интеллекту, или природному?

 

Иван Лаптев: Я думаю, что, если говорить об искусственном интеллекте, мы можем понять, как он работает и можем дать ему какое-то операционное определение. А интеллект в общем, как мы говорим, — это что такое? Если проблему можно решить силой — это интеллект, или нет? Раньше люди говорили — да, например. Шахматы — это не то, что решается грубой силой. Сейчас возникают такие философские дебаты. Например, что такое распознавание объектов, какая это часть интеллекта? Это философский вопрос: что является предметом, что им не является. Машина — это машина, но модель машины — это машина или только ее образ? Поэтому на практике, если говорить так... С точки зрения задач, это проблема неважна. У вас есть какая-то цель. Если вы можете ее достичь, если у вас есть метод достижения этой цели, то тогда вопрос определения вас, может быть, уже не волнует – что такое интеллект и чем он не является.

 

Николаос Мавридис: Мы знаем, что если вы дадите машине какой-то объем данных, то она его запомнит. Раньше у нас были какие-то такие особенности, когда распознавание определенных систем, распознавание паттернов — мы думали, что это глубокое обучение. Мы надеемся, что глубокое обучение, deeplearning, даст нам такие решения с помощью больших массивов данных, которыми мы сейчас располагаем.

 

Палури Манохар (Manohar Paluri), research lead at Facebook AI Research & head of Computer Vision group: Сейчас, если говорить о... Это такое исследование шаблонов. В принципе, разница здесь в том, что всё это делается на основе данных, раньше исследование шаблона было чем-то другим. Сейчас вы определяете проблему, закладываете данные, и все это работает в таком вот алгоритмическом решении, у каждого бокса нет своей отдельной системы.

 

Иван Лаптев: Позвольте мне определить, в чем разница между искусственным интеллектом и естественным, природным интеллектом. Может быть, она состоит как раз в наличии или отсутствии цели, поскольку мы ставим цели для искусственного интеллекта, и эти цели как бы человеческие. Но у нас нет роботов, которые, по сути, — человек. Мы не даем компьютеру те же самые задачи, решения которых ожидаем от других людей. Мы даем компьютеру конкретную задачу, говорим: возьми... Например, поиск какой-то картинки. И сейчас компьютеры этому научились очень хорошо, даже за 10 лет. И поэтому поиск, там, какого-то здания или копии какой-то картинки... Или вы загружаете небольшой кусочек фильма на Youtube, он находит полный фильм. Поиск лица, распознавание лица... Это всё крайне конкретные, узкоспециализированные задачи. Что касается поиска картинок, изображений — возможно, эта проблема решена. Но она решена несколько по-другому, чем если бы человек решал ту же самую проблему. И я думаю, что если приблизить искусственный интеллект к человеческому интеллекту, то здесь нам необходимо давать компьютеру те задачи, которые были бы больше связаны с человеческими.

 

Михаил Бурцев: Продолжая вашу идею, цепь ваших рассуждений. Если вы говоите: ok, давайте мы будем заниматься проблемой классификации изображений как проблемой, где изначально у вас есть определенный пакет данных, который содержит много человеческого экспертного знания — потому что вы промаркировали все вот эти изображения. И во время обучения сеть каким-то образом вот это человеческое знание «выжимает», чтобы затем классифицировать картинки. Ну, примерно так. Если тогда мы будем говорить о более глубоком обучении, возникает проблема. Например. У вас есть только экран видеоигры и у вас есть только определенные точки. Нет никаких других систем наведения — скажем так, вы не даете прямого feedbackот том, какие действия обратной связи хорошие, какие нет, и что нужно делать в этой ситуации или в этой. Вы не даете этого машине, вы просто задаете какой-то определенный score, какой-то счет, который может отстоять от ваших действий по времени. Поэтому здесь мы не даем никакой человеческой экспертизы, не закладываем ее в алгоритм. Мы даем экспертизу только в том, как строить эту систему. Поэтому в этом смысле такие модели глубинного обучения больше универсальные, потому что здесь нужно меньше обратной связи для выполнения задачи. Что вы думаете вообще на эту тему?

 

Иван Лаптев: Конечно, это более хороший способ обучения искусственной системы, поскольку вы обучаете ее работе по многим моделям. Невозможно стоять над душой у этой бездушной системы, это система, которая должна работать в таком более-менее самостоятельном режиме.

 

Палури Манохар: Да, но вы не можете такой вот reinforcement, или ускоренное глубокое обучение применять просто бездумно, потому что не каждая проблема... вы не сможете таким образом переконфигурировать проблему. Я думаю, что такое обучение, не сопровождаемое или сопровождаемое... Вот есть какой-то сигнал. Если говорить об управляемом обучении — вы даете какой-то слабый сигнал в каком-то направлении. И я думаю, что все вот эти моменты здесь необходимо принимать во внимание, изначально они могут быть конвергентными. Возможно, в несопровождаемое обучение вы закладываете другие модели... И затем... В системе сопровождаемого обучения вы работает по-другому. Я думаю, что это комбинация.

 

Николаос Мавридис: Интересное наблюдение. Вопрос: говоря о человеческом интеллекте — на каких этапах он может работать с машиной? Первое — это создание алгоритма, второе — это некое экспертное знание, которое затем переведено в определенные функции системы. Конечно, когда у вас есть такое supervised learning, обучение в супервайзинге, — это другая система. Если говорить о системах машинного обучения, они-то учатся по-другому. Поэтому тут еще один момент: каковы разные этапы человеческого обучения? Есть ли эволюционный процесс в том, как мы учимся? Конечно, все это заложено эволюцией, но, тем не менее, есть определенные этапы обучения. Ребенок учится определенным образом. Затем есть также и формальное обучение, институционализированное: где-нибудь в школе и т. д. Это такая интересная метафора для того, чтобы подумать: а как это связано с машинным обучением.

 

Михаил Бурцев: И самостоятельное обучение, без какой-то образовательной системы.

 

Николаос Мавридис: Да. И с другой точки зрения, ограничения искусственного интеллекта отличаются от машинного интеллекта. Например, вопрос переноса, переносимости знания через различные установки легче происходит у роботов, чем у людей. Это интересно — когда из системоведения, которой вы натренировали одного робота вы можете просто эту сеть перенести на другие машины. В каком-то смысле поэтому мы думаем о том, что это системы изолирования, но мультиагентная модель лучше работает с машинами. Если робот понимает какое-то знание, то эта система очень легко дистрибутируется.

 

Михаил Бурцев: Да, мы можем сказать, это некий коллективный машинный интеллект. Кстати, это очень интересное замечание. Я здесь хотел бы спросить всех. Уважаемые друзья и коллеги, что вы думаете: искусственный интеллект — это продолжение эволюционного интеллекта, или нет? Или искусственный интеллект в каком-то смысле естественен, например, как некий феномен, который мы можем наблюдать в природе? Сначала есть природный естественный интеллект, затем природный искусственный интеллект как некое продолжение или надстройка над эволюцией? И если ваш ответ на этот вопрос — да, искусственный интеллект это естественное продолжение эволюционных процессов, тогда что, как вы думаете, станет следующим шагом? Будут ли у нас какие-то... симбиотический коллективный интеллект, например, какой-то глобальный мозг, глобальное сознание? С точки зрения интеллекта людей — интегрированное знание человека, интегрированное в какие-то сети, или что-то еще? Как вы думаете, увидим ли мы это, или нет?

 

Иван Лаптев: У меня спонтанный такой комментарий, ответ на ваш вопрос. Мы... Если это эволюционный процесс, — да, мы это увидим. Если это лучше, чем наши знания, нужно защищать себя.

 

Николаос Мавридис: Вопрос... Что касается технологии экспоненциального роста, насколько мы можем быть уверены... насколько мы вообще можем контролировать этот процесс? Или остановить его, если нужно? Вот, что произошло 3 года назад с компьютерным зрением, например...

 

Иван Лаптев: Это прекрасный пример того, как мы можем что-то предсказывать и предугадывать. Конечно, бум в компьютероведении... Кстати, что является серьезным минусом, мы даже не очень-то и контролируем: технология эта существует уже 25 лет — правильно?.. примерно столько, — и мы... Конечно, были люди, которые продвигали ее, которые верили в нее, иначе ничего бы не произошло. Но главным триггером в развитии компьютерного зрения было большое количество вычислительных мощностей и набор данных, Большие Данные. Всё это сложилось благодаря большинству факторов, но не то чтобы мы сильно контролировали это. Что будет дальше — я не знаю.

 

Палури Манохар: Я этого не так боюсь, потому что я еще пока не видел никакого примера какой-то системы, которая может научиться учиться. Я думаю, что когда система научится учиться, тогда этот вопрос станет более актуальным, и нам нужно будет посмотреть на него внимательнее. А до этого, пока этого не произошло, я думаю, что компьютеры будут расти, данные будут расти, много чего будет происходить на основании правил, какие-то конкретные алгоритмы. Системы, которые будут очень хорошо работать по узким задачам, станут гораздо более асортифицированными, но я не думаю, что они научатся учиться и адаптироваться. Я не знаю, честно говоря, ответа нет.

 

 

Михаил Бурцев: А вы проводите различия между знанием — как чем-то нейтральным, нейтральным состоянием... Позвольте мне объяснить это так: например, у вас есть какая-то система с искусственным интеллектом, у которой есть более-менее серьезная база знаний. Но вопрос: даже если эта искусственная система научится учиться, как вы говорите, то — что для нас имеет значение — как она будет использовать это знание, если у нее нет способов принятия решений или изменения своих целей? Это одна ситуация. А если эта система, например, может переписывать что-то, какие-то коды, менять свои цели — тогда это другая система. Как вы думаете, вот эти вещи независимы? То есть набор знаний и компетенций — и целеполагание? Или они взаимоувязаны друг с другом? Или, другими словами, вот у вас может быть какой-то суперинтеллект, но он не может использовать свою силу для каких-либо целей.

 

Николаос Мавридис: Посмотрите, например, на биологические системы. Вы видите, что сенсорные аппараты, концептуальные системы (если их так можно называть), которые есть у животных, определяются природой, окружением. Поэтому тот факт, что у нас есть 2 категории — например, «тигр» и «кошка», — и на уровне восприятия, например, это то же самое... Но это и имеет отношение к тому, что мы реагируем по-другому на стимулы «тигра» и «кошки». Поэтому есть такое вот несоответствие этих категорий. Если вы хотите онтологически создать... Всё это определяется, конечно, целью любой системы. Затем другой вопрос: что происходит с искусственными системами? Здесь мы подходим к следующему. Например, в греческом языке есть понятие «telos», или «цель». И в европейских исследованиях эта тема тоже изучает системы, которые могут самостоятельно принимать решения о своей цели, менять свою цель в рамках какого-то алгоритма действий. Хороший вопрос — насколько вся эта дискуссия... Это может быть такой порочный круг. Если вы посмотрите на литературу — кто-то говорит, что ничего-то нет. У меня такое впечатление, что по крайней мере значительная часть целей искусственных систем не будет определяться самостоятельно, она будет всегда включать в себя человеческий фактор или компонент — в плане выработки целеполагания.

 

Палури Манохар: Мне кажется, что есть определенные куски, которых не хватает. Первое: у нас нет общих алгоритмов обучения, у нас даже нет... У нас много систем, конкурирующих между собой. И поэтому здесь есть очень много элементов, которые должны сложиться в общую картинку перед тем, как мы сможем задать себе вопрос — нужно ли бояться таких систем, таких роботов, и в каком направлении будет развиваться искусственный интеллект.

 

Николаос Мавридис: Есть люди, которые занимаются общим проблемами решения... Что вы думаете о них?

 

Палури Манохар: Еще раз?..

 

Николаос Мавридис: Ну, вот все эти общие вопросы искусственного интеллекта и того, что происходит в этой области.

 

Палури Манохар: Да, есть много предложений. Это философский вопрос, философская дискуссия, нам необходимо ее немножко приземлить и посмотреть на реальность: какие математические модели существуют, довольны ли мы тем, как они представляют собой сумму знаний — и мы, например, понимаем, что есть определенные такие кольца в том, как работает даже наш мозг? Что является наилучшим алгоритмом обучения? То есть много других вопросов. Поэтому всё это, с моей точки зрения, — да, есть определенная... лингвистика, изучение языков, где компьютеры сильно продвинулись с искусственной системой. Но по остальным направлениям — не очень.

 

Михаил Бурцев: Интересно, что даже если искусственные нейронные сети вдохновлены естественными сетями, и каждый нейрон рассматривается как некая модель реального нейрона, люди все-таки ищут определенную пропагацию в эту систему. Это может не произойти, поэтому ключевой ингредиент этой модели сам по себе удивителен. Эта вот обратная пропагация работает по очень сложным системам: LSTM, системой памяти — и, тем не менее, правила обучения-то те же самые. Поэтому это очень классный метод оптимизации работы системы.

 

Иван Лаптев: Я думаю, что мы можем что-то подобное делать. Да, возможно.

 

Николаос Мавридис: Конечно, мы не можем полностью смоделировать, как работают человеческие нейроны, но вопрос — насколько много мы можем импортировать с этого момента? И сейчас мы понимаем, что это довольно сложная модель, чтобы нам достичь того поведения, которого мы ходим. Но я думаю, что в принципе мы хотим всё это, что называется, проанализировать. И если мы смотрим на модель Мак-Каллока-Питтса, она нам дает определенный взгляд на машины, их создание. Но если мы говорим потом по поводу продвижения и т. д., — у меня такое ощущение, что если мы сейчас начнем брать именно то, что у нас есть по поводу копирования модели человека, у нас не будет оптимального решения. И потом, ваш вопрос по поводу человеческого мозга...

 

Михаил Бурцев: С одной стороны, у вас есть полная симуляция мозга. Потому что есть проект, цель которого — симуляция биофизики на клеточном уровне, вообще полной картины мозга. И цель — достичь этого через 10 лет. С другой стороны, есть какие-то искусственные нейромодельные моменты. Как вы думаете, что будет более плодотворным из подходов? Можно ли взять человеческий интеллект и из симуляции каким-то образом всё это почерпнуть?

 

Палури Манохар: Если честно, это не совсем еще исследовано. Да, если это больше исследовать... Если вы хотите ввести в применение, то нам надо больше об этом узнать. Но вопрос, сколько вы денег готовы вложить в эксплуатацию и исследования? Может, 50/50, а может — 90/10?..

 

Михаил Бурцев: То есть вы хотите сказать, что Европейский союз пока не очень преуспел в исследованиях?

 

Иван Лаптев: Может быть, я соглашусь с этим примером. То, что связано с самолетами, птицами — да, может быть, необязательно это копирование, но я думаю, что несколько раз происходило так, что независимо происходило в искусственном интеллекте, когда люди выясняли, что... открывали определенные клетки... Если мы смотрим по независимой части, когда люди анализируют мозг и делают искусственный интеллект... Если бы они могли перенести, как бы переплести это, чтобы это было не-независимо, чтобы оба этих проекта были на правильном пути.

 

Николаос Мавридис: Но если вы говорите о нейронауке, я полностью согласен по поводу систем зрения... Мы должны смотреть именно на то, что нам приносит результаты.

 

Запись сессии Native Artificial Intelligence

 

Смотрите также отдельные выступления участников сессии на JSON.TV:

 

Иван Лаптев, VisionLabs: challenges and opportunities of Computer vision in CNN era

 

Nikolaos Mavridis, Innopolis University: deep learning and robots

 

Manohar Paluri, Facebook: Computer vision efforts at our global scale