Pull to refresh

Основы подхода к построению универсального интеллекта. Часть 2

Reading time 11 min
Views 13K
Часть 1.

Краткий анализ существующих подходов к сильному ИИ.


Когнитивные архитектуры.

При создании сильного ИИ естественно воспроизводить, если не все детали работы человеческого мозга, то, по крайней мере, те функции, которые он выполняет. В противном случае, очень сложно быть уверенным, что создается именно интеллект. Именно такую цель и преследуют когнитивные архитектуры, которые объединяют такие функции, как обучение, память, планирование и т.д., то есть все (или почти все) то, что есть в естественном интеллекте. Это и делает когнитивные архитектуры столь привлекательными и популярными.
Однако само по себе желание наделить компьютер всеми теми же когнитивными функциями, которые есть у человека, не говорит о том, как это правильно сделать. В результате к настоящему моменту разработано множество когнитивных архитектур, ряд из которых нередко позиционируется как путь к построению сильного ИИ. К ним, в частности, относится такие популярные у «строителей сильного ИИ» архитектуры, как Soar и ACT-R.
Многие архитектуры зачастую отталкиваются от феноменологии высших когнитивных функций человеческого разума. Однако из-за отсутствия полного понимания природы этих функций и требований к ним их реализации оказываются во многом произвольными.
Нередко даже построение подобных архитектур ведется в рамках традиционного символьного подхода, моделирующего лишь «вершину айсберга» человеческого мышления. Тем не менее, нередко производится и попытка построения ахритектур, воспроизводящих не только высокоуровневые, но и низкоуровневые функции (т.н. эмерджентные архитектуры). Более того, исследователи ИИ хорошо понимают необходимость объединения символьных и субсимвольных уровней и разработку гибридных архитектур, а также необходимость построения воплощенных систем (являющихся ключевыми, в частности, для получения семантической основы понятий), которые в сугубо символьных архитектурах реализовывать весьма проблематично (см. [Duch et al., 2008] в качестве обзора).
Тем не менее, отмечается [Duch et al., 2008], что весьма нечасто удается применять для решения реальных задач, не говоря уже о том, чтобы масштабировать до уровня автономного поведения в реальном мире. Так почему же когнитивные архитектуры не привели к существенному прогрессу в области сильного ИИ? Ответ на этот вопрос уже дан выше.
Эти системы, вероятнее всего, обречены на неуниверсальность, поскольку собираются из слабых компонент. Это, видимо, относится и к таким системам, исходно позиционировавшимся в качестве систем общего интеллекта, как Novamente (описание которой дано в [Goertzel and Pennachin, 2007]). Конечно, не исключена возможность внесения свойства универсальности как расширения той или иной архитектуры (в конце концов, универсальность интеллекта вряд ли можно приписывать большинству животных, а, значит, она появилась как эволюционная надстройка над более частными формами интеллекта). Тем не менее, такой путь нам представляется более трудоемким и менее оптимальным.

Подход на основе ресурсных ограничений.

Данный подход отталкивается от следующего определения, данного П. Вангом [Wang, 2007]:
Intelligence is the capacity of a system to adapt to its environment while operating with insufficient knowledge and resources, где адаптация (как способность учиться на опыте) является достаточно обычным требованием, тогда как основные особенности подхода выводятся из недостатка ресурсов и знаний (поскольку, когда ресурсов и информации достаточно, могут использоваться и не вполне интеллектуальные методы). Как следствие, в рамках этого подхода строится вариант категориальной логики для учета нечеткости знаний, а также предлагается распределенная система манипулирования знаниями, в которой учитывается ограниченность вычислительных ресурсов.
При этом автор предлагает разделять понятия «интеллектуальный» и «эффективно интеллектуальный». Такое разделение представляется вполне справедливым и отражает то интуитивное впечатление, что, например, шахматная программа, работающая методом «грубой силы», является интеллектуальной не в том же смысле, в котором является интеллектуальным шахматист.
Хотя с самим принципом эффективного интеллекта можно согласиться, данный конкретный подход вряд ли может стать основой для построения СИИ: в нем упускается те аспекты интеллекта, которые выявлены в универсальных алгоритмических моделях и в когнитивных архитектурах. Иными словами, сам тезис о необходимости ресурсных ограничений не говорит о том, как правильно их вводить.
В частности, это видно из того факта, что П. Ванг ввел как основополагающий принцип также недостаток знаний у агента. Недостаток знаний, конечно же, важен, но он вполне учитывается в (критикуемых Вангом) моделях универсального алгоритмического интеллекта, которые включают не только поиск в пространстве действий, но и универсальный индуктивный вывод, для которого учет нечеткости знаний является не основополагающим принципом, а лишь эвристикой для упрощения перебора моделей (что будет продемонстрировано позднее).
В итоге в рамках этого подхода разработана лишь частная когнитивная архитектура, не обладающая принципиальными преимуществами по сравнению с прочими, хотя систематическое следование принципам ограниченности ресурсов и обладает значительной эвристической силой.

Универсальный алгоритмический интеллект.

Сама идея данного подхода известна давно, но получил он признание сравнительно недавно в основном через работы [Hutter, 2001], [Schmidhuber, 2003] и другие работы этих авторов. В его рамках основной упор делается на модели универсальной индукции Соломонова, включенные в систему выбора действий в окружающей среде для максимизации некоторой оценивающей функции.
Здесь анализ начинается с простой универсальной модели, на которую не накладываются ресурсные ограничения. Первый шаг нашего подхода аналогичен, так как мы полагаем, что свойство универсальности крайне желательно сразу вводить в модель универсального ИИ и поддерживать сохранение этого свойства при развитии модели, которое осуществляется путем ввода ресурсных ограничений.
В современных версиях рассматриваемых подходов ресурсные ограничения также вводятся, но с сохранением максимальной непредвзятости универсального ИИ, что позволяет строить общие модели самооптимизации.
Такой учет ограничений на ресурсы, однако, не вполне достаточен. Можно сказать, что он требует воспроизводства целиком эволюции, которая также начиналась как универсальный самооптимизирующийся поиск без какой-либо априорной информации. Очевидно, чтобы становление подобного универсального интеллекта могло быть осуществлено за обозримое время, необходимо в него закладывать как достаточно большой объем априорной информации о структуре внешнего мира, так и эвристики для сокращения перебора вариантов моделей и действий. Эти эвристики как раз можно почерпнуть из феноменологии когнитивных функций естественного интеллекта. С другой стороны, в сильный ИИ нерационально вручную закладывать слишком большой объем специфичных знаний, которые он может почерпнуть самостоятельно (чем грешат такие проекты, как, например, Cyc). Очевидно, необходимо достижение оптимального компромисса между этими двумя крайностями.
Помимо этого, отдельный вопрос для обсуждения заключается в том, а действительно ли представленные модели являются универсальными. Для этого необходимо тщательно сравнить гипотетические возможности этих моделей с возможностями человека. Отчасти такие сравнения проводятся (например, [Hutter, 2005]), хотя их нельзя назвать бесспорными или исчерпывающими. Тем не менее, сомнения в действительной универсальности этих моделей вполне можно выдвинуть, что будет показано при анализе нашей собственной модели универсального алгоритмического интеллекта.
Сейчас отметим лишь одно из таких сомнений, которое заключается в том, что интеллект лишь в нулевом приближении можно свести к максимизации априорно заданной целевой функции. Ведь если, скажем, задача интеллекта заключается в обеспечении выживания, то априорно заданная целевая функция (базирующаяся, скажем, на эмоциональных оценках) может быть лишь грубой эвристической аппроксимацией цели выживания. Это означает необходимость существования специальных механизмов, позволяющих каким-то образом уточнять целевую функцию в онтогенезе. Здесь можно привести следующую аналогию с шахматами. Пусть один интеллектуальный агент может сыграть только одну партию. Имея ограниченные вычислительные ресурсы, он не может осуществить полный перебор вариантов, чтобы предсказать победу или поражение. Рождаясь с минимумом априорных знаний о мире, он не может иметь сложную целевую функцию, которая бы позволяла эффективно отсекать неперспективные варианты на дереве игры. Исходная целевая функция может опираться лишь на какие-то непосредственно воспринимаемые стимулы, скажем на суммарную силу фигур (дающую ощущение боли и удовольствия при потере своей фигуры или съедении фигуры соперника). В процессе взросления (игры) агент может построить более сложные понятия, но самостоятельно (не прожив жизнь целиком) он в принципе не сможет определить, как на основе этих понятий можно улучшить целевую функцию. Эту информацию ему, однако, могут дать другие агенты, но только при условии, что имеется некий хороший механизм модификации целевой функции. Этот аспект имеет отношение и к проблеме дружественного ИИ…

Подход на основе обучения целевым функциям.

Проблема обучения целевым функциям иногда рассматривается в качестве основополагающей при построении сильного ИИ (или, точнее, дружественного ИИ [Yudkowsky, 2011]). В рамках этого подхода совершенно справедливо замечается, что максимизация априорной целевой функции недостаточна для того, чтобы искусственный интеллект оказался универсальным, особенно, в части эффективного (и желаемого) взаимодействия с социальным окружением, которое является таким же элементом объективной реальности, как и физическое окружение.
Проблема наделения ИИ способностью к модификации собственной целевой функции нетривиальна в силу того, что не ясно, как целевая функция может оптимизироваться, если не под управлением другой целевой функции (или каких-то других априорных механизмов). Важность возможности модификации целевой функции связана не только с тем, что это необходимо для полноценной универсальности агента, но и с тем, что ИИ, стремящийся к максимизации априорной целевой функции вполне может найти такие действия, оптимальные с точки зрения этой функции, которые окажутся крайне нежелательными для людей [Yudkowsky, 2011]. Хотя важность этих аспектов бесспорна, их рассмотрение вне конкретных моделей универсального интеллекта не позволяет наметить путь создания сильного ИИ (а, скорее, задает некоторые ограничения на пути его создания), поэтому данный подход следует считать комплементарным другим подходам. Возможность модификации целевой функции необходимо предусмотреть в архитектуре универсального интеллектуального агента, хотя в целом это можно рассматривать на том же уровне, что и другие когнитивные функции, а именно, как специфическую эвристику повышения эффективности развития «младенческого» ИИ до уровня «взрослого» ИИ.

Адаптивное поведение, самоорганизация и бионика в целом.

Существует большое направление исследований в области сильного ИИ, связанное с бионическим подходом. Здесь выделяются попытки (см., напр., [Garis, 2007] [Red’ko, 2007]) моделирования мозга на разных уровнях детальности, воспроизведения адаптивного поведения, начиная с простейших его форм к более сложным, моделирования эволюции, самоорганизации в целом. Зачастую этот подход носит имитационный характер и достаточно жестко противопоставляется алгоритмическому подходу, из-за чего оказывается недостаточно глубоким. В частности, разные имитационные модели эволюции и самоорганизации не приводят к неограниченному развитию по той простой причине, что их авторы даже не пытаются рассматривать вопросы, связанные с вычислительной сложностью решаемых оптимизационных проблем и алгоритмической полнотой тех форм поведения, которые в принципе могут получиться в ходе этого моделирования. Из-за этого весьма сомнительно, что бионический подход сам по себе может привести к созданию сильного ИИ. Однако в то же время он может служить важным источником продуктивных идей, пренебрегать которым было бы слишком расточительно.

Выводы.

Как видно, разные существующие подходы к сильному ИИ не столько противоречат друг другу, сколько рассматривают разные аспекты проблемы универсального ИИ, в связи с чем необходимо осуществлять их объединение. Естественно, существует и множество интеграционных подходов, пытающихся выполнить синтез разных имеющихся систем и методов, поэтому идея интеграции в целом не нова. Однако зачастую эта интеграция ограничивается объединением слабых методов, либо же частичным расширением универсальных алгоритмических моделей ИИ. Недостаточная «глубина» интеграции видна по тому факту, что сторонники перечисленных подходов предпочитают их противопоставлять друг другу, критикуя недостатки конкурентных подходов. Здесь же речь идет, скорее, о разработке нового подхода, осуществляющего учет основных ранее полученных результатов и идей на гораздо более глубоком концептуальном уровне (при этом, правда, далеко не всегда легко установить связь между разными подходами).
Необходимо начать с простейших моделей в случае неограниченных ресурсов; убедиться в их универсальности или установить, чего не хватает для ее достижения, что может быть учтено впоследствии. Далее следует рассмотреть универсальные модели с ограничением на вычислительные ресурсы. Такие модели могут быть также относительно просты, но должны включать самооптимизацию. Далее должна вводиться априорная информация о свойствах мира (наиболее общие из которых обусловят особенности когнитивной архитектуры) для сокращения времени становления ИИ, то есть приобретения им автономности.

Литература.

(McCarthy, 2005) McCarthy J. The Future of AI—A Manifesto // AI Magazine. 2005. V. 26. No 4. P. 39.
(Nilsson, 2005a) Nilsson N.J. Reconsiderations // AI Magazine. 2005. V. 26. No 4. P. 36–38.
(Nilsson, 2005b) Nilsson N.J. Human-Level Artificial Intelligence? Be Serious! // AI Magazine. 2005. V. 26. No 4. P. 68–75.
(Brachman, 2005) Brachman R. Getting Back to “The Very Idea” // AI Magazine. 2005. V. 26. No 4. P. 48–50.
(Bobrow, 2005) Bobrow D.G. AAAI: It’s Time for Large-Scale Systems // AI Magazine. 2005. V. 26. No 4. P. 40–41.
(Cassimatis et al., 2006) Cassimatis N., Mueller E.T., Winston P.H. Achieving Human-Level Intelligence through Integrated Systems and Research // AI Magazine. 2006. V. 27. No 2. P. 12–14.
(Langley, 2006) Langley P. Cognitive Architectures and General Intelligent Systems // AI Magazine. 2006. V. 27. No 2. P. 33–44.
(Cassimatis, 2006) Cassimatis N.L. A Cognitive Substrate for Achieving Human-Level Intelligence // AI Magazine. 2006. V. 27. No 2. P. 45–56.
(Jones and Wray, 2006) Jones R.M., Wray R.E. Comparative Analysis of Frameworks for Knowledge-Intensive Intelligent Agents // AI Magazine. 2006. V. 27. No 2. P. 57-70.
(Cohen 2005) Cohen P.R. If Not Turing’s Test, Then What? // AI Magazine. 2005. V. 26. No 4. P. 61–67.
(Hall, 2008) J Storrs Hall. Engineering Utopia // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 460–467.
(Pankov, 2008) Pankov S. A computational approximation to the AIXI model // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 256–267.
(Duch et al., 2008) Duch W., Oentaryo R.J., Pasquier M. Cognitive Architectures: Where Do We Go from Here // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 122–136.
(Yudkowsky, 2011) Yudkowsky E. Complex Value Systems n Friendly AI // Proc. Artificial General Intelligence – 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3-6, 2011. Lecture Notes in Computer Science 6830. Springer. 2011. P. 388–393.
(Kurzweil, 2005) Kurzweil R. The Singularity is Near. Viking, 2005.
(Solomonoff, 1964) Solomonoff R.J. A formal theory of inductive inference: parts 1 and 2. Information and Control. 1964. V. 7. P. 1–22, 224–254.
(Schmidhuber, 2003) Schmidhuber J. The new AI: General & sound & relevant for physics. Technical Report TR IDSIA-04-03, Version 1.0, cs.AI/0302012 v1, IDSIA. 2003.
(Hutter, 2001) Hutter M. Towards a universal theory of artificial intelligence based on algorithmic probability and sequential decisions. In Proc. 12th European Conf. on Machine Learning (ECML-2001), volume 2167 of LNAI, Springer, Berlin. 2001.
(Hutter, 2005) Hutter M. Universal Artificial Intelligence. Sequential Decisions Based on Algorithmic Probability / Springer. 2005. 278 p.
(Wang, 2007) Wang P. The Logic of Intelligence // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 31–62.
(Schmidhuber, 2007) Schmidhuber J. Gödel Machines: Fully Self-Referential Optimal Universal Self-improvers // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 199–226.
(Hutter, 2007) Hutter M. Universal Algorithmic Intelligence: A Mathematical Top→Down Approach // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 227–290.
(Goertzel and Pennachin, 2007) Goertzel B., Pennachin C. The Novamente Artificial Intelligence Engine // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 63–130.
(Garis, 2007) Hugo de Garis. Artificial Brains // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 159–174
(Red’ko, 2007) Red’ko V.G. The Natural Way to Artificial Intelligence // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 327–352.
Tags:
Hubs:
+5
Comments 30
Comments Comments 30

Articles