К вопросу о принципиальной возможности создания искусственного интеллекта
В статье приводятся результаты исследования философского и технологического аспектов создания систем искусственного интеллекта. Раскрыты разные подходы к конструированию интеллектуальных систем и показано место нейронечетких технологий в этом процессе....
Збережено в:
Дата: | 2010 |
---|---|
Автор: | |
Формат: | Стаття |
Мова: | Russian |
Опубліковано: |
Інститут проблем штучного інтелекту МОН України та НАН України
2010
|
Назва видання: | Штучний інтелект |
Теми: | |
Онлайн доступ: | http://dspace.nbuv.gov.ua/handle/123456789/56173 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
Цитувати: | К вопросу о принципиальной возможности создания искусственного интеллекта / А.В. Матвийчук // Штучний інтелект. — 2010. — № 3. — С. 25-35. — Бібліогр.: 13 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraineid |
irk-123456789-56173 |
---|---|
record_format |
dspace |
spelling |
irk-123456789-561732015-08-05T21:07:50Z К вопросу о принципиальной возможности создания искусственного интеллекта Матвийчук, А.В. Концептуальные проблемы создания систем искусственного интеллекта В статье приводятся результаты исследования философского и технологического аспектов создания систем искусственного интеллекта. Раскрыты разные подходы к конструированию интеллектуальных систем и показано место нейронечетких технологий в этом процессе. У статті наводяться результати дослідження філософського та технологічного аспектів створення систем штучного інтелекту. Розкрито різні підходи до конструювання інтелектуальних систем та показано місце нейронечітких технологій у цьому процесі. There are presented in the article the results of researches of philosophy and technological aspects of building of artificial intelligence systems. It's shown various approaches to construction of intelligent systems and pointed the place of neural-fuzzy technologies in this process. 2010 Article К вопросу о принципиальной возможности создания искусственного интеллекта / А.В. Матвийчук // Штучний інтелект. — 2010. — № 3. — С. 25-35. — Бібліогр.: 13 назв. — рос. 1561-5359 http://dspace.nbuv.gov.ua/handle/123456789/56173 519.865.7 ru Штучний інтелект Інститут проблем штучного інтелекту МОН України та НАН України |
institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
collection |
DSpace DC |
language |
Russian |
topic |
Концептуальные проблемы создания систем искусственного интеллекта Концептуальные проблемы создания систем искусственного интеллекта |
spellingShingle |
Концептуальные проблемы создания систем искусственного интеллекта Концептуальные проблемы создания систем искусственного интеллекта Матвийчук, А.В. К вопросу о принципиальной возможности создания искусственного интеллекта Штучний інтелект |
description |
В статье приводятся результаты исследования философского и технологического аспектов создания систем искусственного интеллекта. Раскрыты разные подходы к конструированию интеллектуальных систем и показано место нейронечетких технологий в этом процессе. |
format |
Article |
author |
Матвийчук, А.В. |
author_facet |
Матвийчук, А.В. |
author_sort |
Матвийчук, А.В. |
title |
К вопросу о принципиальной возможности создания искусственного интеллекта |
title_short |
К вопросу о принципиальной возможности создания искусственного интеллекта |
title_full |
К вопросу о принципиальной возможности создания искусственного интеллекта |
title_fullStr |
К вопросу о принципиальной возможности создания искусственного интеллекта |
title_full_unstemmed |
К вопросу о принципиальной возможности создания искусственного интеллекта |
title_sort |
к вопросу о принципиальной возможности создания искусственного интеллекта |
publisher |
Інститут проблем штучного інтелекту МОН України та НАН України |
publishDate |
2010 |
topic_facet |
Концептуальные проблемы создания систем искусственного интеллекта |
url |
http://dspace.nbuv.gov.ua/handle/123456789/56173 |
citation_txt |
К вопросу о принципиальной возможности создания искусственного интеллекта / А.В. Матвийчук // Штучний інтелект. — 2010. — № 3. — С. 25-35. — Бібліогр.: 13 назв. — рос. |
series |
Штучний інтелект |
work_keys_str_mv |
AT matvijčukav kvoprosuoprincipialʹnojvozmožnostisozdaniâiskusstvennogointellekta |
first_indexed |
2025-07-05T07:24:27Z |
last_indexed |
2025-07-05T07:24:27Z |
_version_ |
1836790860520357888 |
fulltext |
«Штучний інтелект» 3’2010 25
1М
УДК 519.865.7
А.В. Матвийчук
Институт моделирования и информационных технологий в экономике ГВУЗ
«Киевский национальный экономический университет имени Вадима Гетьмана»
matviychuk@prognoz.com
К вопросу о принципиальной возможности
создания искусственного интеллекта*
В статье приводятся результаты исследования философского и технологического аспектов создания
систем искусственного интеллекта. Раскрыты разные подходы к конструированию интеллектуальных
систем и показано место нейронечетких технологий в этом процессе.
Главной задачей искусственного интеллекта (artificial intelligence) является ком-
пьютерное решение когнитивных задач, свойственных человеческому мозгу. Такие
задачи традиционно решаются людьми в условиях неполноты, неточности и противо-
речивости знаний об объекте исследования, для которых нет четко заданного алгоритма.
При этом в большинстве определений термина «искусственный интеллект» ука-
зывается на возможность применения при его реализации методов, которые не обя-
зательно биологически правдоподобны. Значительное количество исследователей в
области искусственного интеллекта реализуют его с привлечением разнообразного
математического инструментария, начиная с элементарных методов теории веро-
ятностей. При таком подходе интеллектуальной можно назвать любую компьютер-
ную систему, способную, например, с приемлемой точностью распознавать графи-
ческие изображения, независимо от математического инструментария, положенного
в ее основу. При этом распознавание может быть как обычное по пикселям в растровом
представлении, так и посредством преобразования в полярную систему координат или
разложения изображения в спектральную форму.
Можно ли назвать такие системы интеллектуальными? Большинство иссле-
дователей искусственного интеллекта, наверное, дадут утвердительный ответ на этот
вопрос. И это может быть объяснено использованием ими подобного инструмен-
тария без попыток перехода в область биологического правдоподобия.
Исследования же в области нейробиологии свидетельствуют, что в мозге живых
существ формируются группы нейронов, ответственные за распознавание отдельно
горизонтальных, вертикальных линий, дуг различной кривизны и так далее. То есть в
мозге не происходит ничего подобного распознаванию изображений по точкам или
их преобразованию в спектральную форму. Учитывая, что природа нашла возмож-
ность с легкостью распознавать и идентифицировать наиболее сложные объекты,
имеет смысл поучиться у нее и взять готовые решения живого мира. В конце концов,
сам интеллект также происходит из живой природы.
* Статья подготовлена при поддержке Международного научного фонда экономических иссле-
дований академика Н.П. Федоренко (Центральный экономико-математический институт Российской
академии наук) в рамках гранта на издание монографии «Искусственный интеллект в экономике: нейрон-
ные сети, нечеткая логика».
Матвийчук А.В.
«Искусственный интеллект» 3’2010 26
1М
Отметим, что компьютерные системы распознавания образов, основывающиеся
на векторизации графических объектов с последующей их идентификацией (по
аналогии с мозгом живых существ), продемонстрировали наибольшую эффектив-
ность в сравнении с альтернативными системами [1]. Кроме того, они оказались ин-
вариантными к поворотам распознаваемого объекта, его освещенности, отдаленности и
т.п., чем не могли похвастаться другие системы, именуемые интеллектуальными.
Дискуссии относительно того, какие искусственные системы можно считать
интеллектуальными, ведутся еще с первых попыток их создания. Первый тест про-
верки систем на интеллектуальность был предложен еще в 1950 году Аланом Тью-
рингом [2]. Стандартная интерпретация теста Тьюринга звучит так: «Судья взаимо-
действует с одним компьютером и одним человеком. На основании ответов на
вопрос он должен определить, с кем он разговаривает: с человеком или компьютер-
ной программой. Задача компьютерной программы – ввести судью в заблуждение,
заставив сделать неправильный выбор». При этом все участники теста не видят друг
друга. Если судья не может однозначно сказать, кто из собеседников является чело-
веком, то считается, что машина прошла тест.
Чтобы протестировать именно интеллект машины, а не ее возможность распозна-
вать устную речь, беседа ведется только в текстовом режиме, например, с помощью
клавиатуры и компьютера-посредника. Ответы на вопросы даются через определен-
ные промежутки времени, чтобы судья не мог делать заключения, отталкиваясь от
скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее чело-
века, сейчас это правило необходимо, поскольку они дают ответ значительно быст-
рее, чем человек.
Однако по поводу корректности теста Тьюринга существует множество крити-
ческих замечаний. Так, некоторое разумное поведение не свойственно человеку.
Кроме того, тест Тьюринга не проверяет высокоинтеллектуальные действия, напри-
мер, способность решать сложные задачи или выдвигать оригинальные идеи. Также
подобный тест не способен классифицировать описанную выше задачу распознава-
ния образов как интеллектуальную.
По большому счету, тест провоцирует машину обманывать: какой совершен-
ной не была бы машина, она должна притворяться не очень умной, чтобы пройти
тест (некоторые разработчики для прохождения теста Тьюринга принудительно обу-
чали собственные компьютерные системы допускать грамматические ошибки). Если
же машина способна быстро решить какую-то вычислительную задачу, непосильную
для человека, она по определению провалит тест.
Тест Тьюринга явно бихевиористичен или функционалистичен: он лишь прове-
ряет, как действует субъект. Машина, проходящая тест, может имитировать поведе-
ние человека в разговоре, механически (неинтеллектуально) придерживаясь заранее
установленных правил. Так, известный мысленный эксперимент Джона Сёрля «Ки-
тайская комната» [3] иллюстрирует, что элементарное выполнение заранее запрог-
раммированных правил получения ответов на заданные вопросы позволяет пройти
тест Тьюринга. При этом подобные алгоритмы никоим образом нельзя назвать
интеллектуальными. Они только имитируют процесс принятия решений человеком,
но не способны обобщать и извлекать уроки для их применения в будущем.
Подобное понимание искусственного интеллекта, согласно концепции Тьюрин-
га, Джоном Сёрлем было охарактеризовано как слабый искусственный интеллект.
Он же ввел понятие сильного искусственного интеллекта, который может быть
К вопросу о принципиальной возможности создания…
«Штучний інтелект» 3’2010 27
1М
реализован программой, являющейся не просто моделью разума, она в буквальном
смысле слова сама и будет разумом в том же смысле, в каком человеческий разум –
это разум [4, с. 26].
Прогресс в когнитологии (науке о знании, изучающей методы и приемы полу-
чения, обработки, хранения и использования человеческих знаний), который наб-
людается сегодня, дает основания предположить возможность пояснения и описания
когнитивных процессов в мозге человека, ответственных за высшую нервную деятель-
ность. Осознание процессов мозговой деятельности позволит создать основу для
построения систем сильного искусственного интеллекта, которым будет свойствен-
на способность к самостоятельному обучению, творчеству, свободному общению с
человеком.
Изучение структуры мозга и осмысление процессов, протекающих в нем,
позволило сформулировать на сегодня два возможных общих подхода к построению
систем искусственного интеллекта: 1) семиотический – предусматривающий созда-
ние символьных моделей искусственного интеллекта по принципу «сверху вниз»
(top-down) путем построения экспертных систем, баз знаний и систем логического
вывода, имитирующих высокоуровневые психические процессы: мышление, язык,
эмоции, творчество и т.п.; 2) биологический – допускающий создание параллельных
распределенных процессоров с естественной способностью к обучению и работой по
принципу «снизу вверх» (bottom-up), в основе которого лежит изучение нейронных
сетей и эволюционных вычислений, моделирующих интеллектуальное поведение на
основе более мелких «неинтеллектуальных» элементов.
Таким образом, одним из ключевых направлений исследований в области соз-
дания систем искусственного интеллекта, активно развивающихся сегодня, является
конструирование мозгоподобных архитектур. Основываясь на принципах функцио-
нирования биологической нервной системы, в искусственных нейронных сетях раз-
личного типа реализованы те или иные аспекты получения, обработки, хранения и
использования информации подобно процессам, протекающим в мозге человека.
Например, нейронные сети органично подходят для реализации вышеописанного
алгоритма идентификации образов, которые в объединении с указанной математикой
(векторизацией объектов и выделением характерных признаков) способны правдо-
подобно реализовать биологический прототип системы распознавания изображений.
Концепция обработки информации в нейронных сетях происходит из принципа
параллелизма, являющегося основой их гибкости. Причем параллелизм может быть
массовым (сотни тысяч нейронов и более), что наделяет нейронные сети особой
формой робастности (устойчивости к грубым внешним воздействиям с сущест-
венной неопределенностью). Если вычислительные процессы распределены между
большим количеством нейронов, тогда почти неважно, что состояние отдельных
нейронов сети отличается от ожидаемого. Искривленный или неполный входной сигнал
так или иначе можно распознать; поврежденная сеть может продолжать выполнять
свои функции на приемлемом уровне, а обучение не обязательно должно быть макси-
мально точным. Производительность сети в пределах некоторого диапазона снижа-
ется достаточно медленно. Кроме того, можно дополнительно повысить робастность
сети, представляя каждое свойство отдельной группой нейронов [5].
Несмотря на впечатляющие возможности искусственных нейронных сетей, осно-
воположники искусственного интеллекта как научного направления – Марвин Минс-
кий и Эдвард Фейгенбаум [6] – не относили этот инструментарий к системам искусс-
Матвийчук А.В.
«Искусственный интеллект» 3’2010 28
1М
твенного интеллекта (притом, что они были учеными, внесшими один из наибольших
вкладов в развитие теории нейронных сетей).1
Они считали неуместной апелляцию к архитектуре мозга, его нейронной струк-
туре, и декларировали необходимость моделирования процесса работы человека со
знаниями. Поставив в центре внимания операции с формально-логическими языко-
выми конструкциями, они сознательно выбрали ориентацию на имитацию обработки
информации левым полушарием мозга человека. Системы обработки таких форма-
лизованных знаний были названы экспертными, поскольку они должны были воссоз-
давать ход логических рассуждений эксперта (высокопрофессионального специалис-
та) в конкретной предметной области. Эти рассуждения реализуются с использованием
правил вывода, которые необходимо получить у эксперта и формализовать на основе
выбранного математического инструментария.
Однако структура представления знаний является ключевым слабым местом
современных нейронных сетей – они не предусматривают возможности однозначно-
го установления правил принятия решений. Представление знаний в нейронной сети
непосредственно связано с сетевой архитектурой. Тем не менее сегодня не существует
формализованной теории оптимизации структуры нейронных сетей или оценки вли-
яния архитектуры сети на представление знаний в ней. Независимо от того, как
выбирается архитектура сети, знание о предметной области извлекаются нейронной
сетью в процессе обучения. Эти знания представляются в виде весов синаптических
связей сети и параметров нейронов. Такая форма представления знаний дает воз-
можность нейронной сети адаптироваться и выполнять обобщения, однако не обес-
печивает полноценного описания расчетного процесса, применяемого для принятия
решений или формирования выходного сигнала. Это иногда накладывает серьезные
ограничения на использование нейросетевого подхода, особенно в задачах, где необ-
ходимо обеспечить возможность объяснения полученного результата.
В 1988 году Фодором и Пилишиным [8] были опубликованы критические заме-
чания по поводу вычислительной адекватности нейронных сетей при решении когни-
тивных и лингвистических задач. Они аргументированы тем, что нейронные сети не
удовлетворяют двум основным критериям процесса познания – природе ментального
представления и умственных процессов. Согласно этой работе такие характеристики
свойственны именно системам искусственного интеллекта и не свойственны нейрон-
ным сетям: ментальное представление характеризуется комбинаторным синтаксисом
и семантической структурой; умственные процессы характеризуются чувствитель-
ностью к комбинаторной структуре представления, с которым они работают. При
этом искусственный интеллект предполагает существование ментального представ-
ления, в котором познание осуществляется как последовательная обработка сим-
вольной информации.
Действительно, одной из отличительных черт систем искусственного интеллек-
та в классической постановке [8-10] является использование символьного языка для
представления общих знаний о предметной области и конкретных знаний о способах
решения задачи. Поскольку символьное представление знаний имеет квазилингвис-
1 Как это ни парадоксально, но термин «искусственный интеллект» возник в 60-е годы XX столе-
тия в связи с экспертными системами направления, альтернативного нейронным сетям. Первая конферен-
ция по проблемам искусственного интеллекта состоялась в США в 1969 году – в этом же году была
опубликована критическая книга по нейросетевым структурам Минского и Пейперта «Персептроны» [7].
К вопросу о принципиальной возможности создания…
«Штучний інтелект» 3’2010 29
1М
тическую структуру, это дает основания для применения с целью решения постав-
ленной задачи инструментария нечеткой логики, удовлетворяющего указанным свойст-
вам экспертных систем.
Подобно фразам обычного языка, высказывания классических систем искусст-
венного интеллекта, как правило, сложны и образовываются путем систематизации
простых символов. Учитывая ограниченное количество символов, новые смысловые
высказывания формируются на основе композиции символьных выражений и балан-
сирования между синтаксической структурой и семантикой. Символы естественно
группируются в известные термины, что делает символьное представление относи-
тельно простым и понятным человеку. То есть открытость и понятность символьных
систем искусственного интеллекта делает их пригодными для человеко-машинного
общения.
В связи с этим Алленом Ньюэллом и Гербертом Саймоном была сформулиро-
вана гипотеза о физической символьной системе [11], названная в их честь гипотезой
Ньюэлла-Саймона, которая гласит, что необходимые и достаточные средства для
реализации базовых интеллектуальных действий в широком смысле (реализация
сильного искусственного интеллекта) имеет физическая символьная система. Осно-
ванием для гипотезы стало успешное применение для воспроизведения хода рассуж-
дений человека созданной ими программы – универсального решателя задач (General
Problem Solver), в основу которого положен эвристический поиск.
Другими словами, эта гипотеза говорит о том, что без символьных вычислений
невозможно выполнять осмысленные действия, а способность осуществлять сим-
вольные расчеты полностью достаточна для того, чтобы выполнять осмысленные
действия. Таким образом, поскольку компьютер способен к подобным вычислениям,
то на его основе может быть создан сильный искусственный интеллект. Об этом
также было отмечено Джоном Сёрлем, но он же указывал, что отсюда не следует,
что мышление эквивалентно формальным символьным расчетам [4, с. 27]. Сущест-
вующие на сегодня системы и те, которые могут появиться в обозримом будущем,
способны воссоздавать синтаксис, но не реализуют семантику, являющуюся главной
характерной особенностью человеческого мышления (интеллекта). При этом синтак-
сиса самого по себе недостаточно для существования семантики. Однако Сёрль не
откидывает принципиально возможность создания подобных систем в дальнейшем.
Тем не менее, автор этой статьи имеет несколько иную позицию относительно
принципов создания систем искусственного интеллекта. Если цель – реализовать
слабый искусственный интеллект, способный решать когнитивные задачи, то подоб-
ный подход себя полностью оправдывает (хотя здесь можно ограничиться и значитель-
но более примитивными подходами, не имеющими биологической правдоподобности).
Если же целью является создание систем сильного искусственного интеллекта, способ-
ных к мышлению, самостоятельному обучению, творчеству (сохраняя возможность
решения всех задач, которые решаются системами слабого искусственного интеллек-
та), тогда, на наш взгляд, имеет смысл более детально проанализировать основы сущест-
вования интеллекта. Обратимся к философии этого вопроса и биологическим основам
процесса мышления. И начнем с более простых мыслящих существ.
Так, если взглянуть на живую природу, то интересным выглядит тот факт, что
определенные решения постоянно принимаются любыми живыми существами. Нап-
ример, если дворовая собака видит большую собаку, она может и залаять, но отбе-
жит, а если та собака будет меньшей, то может и подбежать к ней. И здесь уже про-
Матвийчук А.В.
«Искусственный интеллект» 3’2010 30
1М
слеживается проявление элементарной логики по принципу «если…, то..., иначе...».
Заметим, что это не является тривиальным отскакиванием от огня или обычным поис-
ком пищи, а действительно это – проявление мышления, процесса принятия решений.
В связи с этим возникают некоторые принципиальные вопросы относительно
характера мыслей и организации процесса мышления. Так, когда осуществляет рас-
суждения человек, то процесс мышления принимает вид логических языковых конст-
рукций, когда за одной фразой всплывает другая, возникают варианты развития
событий и т.д. (именно здесь появляется место символьным системам искусственного
интеллекта). Однако другие живые существа не владеют человеческим языком и не
могут конструировать логические предложения или другие синтаксические конс-
трукции, соответственно, в природе процесс принятия решений приобретает какую-
то иную форму.
Берусь утверждать, что именно этот процесс принятия решений, когда отсутс-
твует логическое объяснение, люди называют интуицией. То есть другие живые су-
щества принимают решения, основываясь на заложенных в мозге моделях поведения
(которые со временем могут изменяться, подстраиваясь под окружающий мир).
Человек также постоянно обращается к такому процессу мышления, не отдавая
этому отчет, но в таком случае мышление действительно не принимает вид логичес-
ких языковых конструкций.
Наверное, человек в своих размышлениях оперирует не столько словами, сколько
образами, ассоциациями. Ведь если в процессе мышления привязка была бы к конк-
ретным словам и словосочетаниям, человек не мог бы переходить с такой легкостью
на другие языки (и думать на них). Здесь заметим, что это является лишь восприя-
тием человека, что он думает на некотором языке. Есть глухонемые люди, которые
вообще ни одного языка не знают. И это не мешает им делать логически обосно-
ванные выводы, решать различные задачи. Итак, язык является лишь проекцией для
человека его мыслей. Однако сами мысли могут протекать и без их трансформации в
лингвистическую форму.
Соответственно, можно предположить, что процесс мышления у человека про-
ходит, скорее всего, через некоторые сохраненные в памяти образы, но человек
осознает это посредством языка, носителем которого он является. Отсюда следует
возможность того, что те же собаки могут размышлять подобными категориями (обра-
зами, но в более простой форме), просто они не трансформируют их через словесные
выражения. Биологическим объяснением является элементарная неразвитость соответс-
твующего участка мозга, наделяющего образы лингвистическим представлением.
Итак, если осуществлять попытки реализовать искусственный интеллект, основы-
ваясь на принципах живой природы, целесообразно строить систему, оперирующую
именно образами (возможно, наподобие нейронных сетей ассоциативной памяти), а в
дополнение, при необходимости, добавить модуль, ответственный за лингвисти-
ческую интерпретацию полученных результатов.
Это в определенной мере противоречит общепринятой гипотезе Ньюэлла-Саймо-
на о возможности реализации сильного искусственного интеллекта лишь на основе
физических символьных систем, но приведенная выше аргументация показывает про-
цесс принятия логически-обоснованных решений в живой природе без обладания
символьным языком.
Дополнительным подтверждением этому могут служить моменты, когда чело-
век точно понимает, что желает высказать (в памяти возникла достаточно конк-
ретная мысль), но не может подобрать соответствующее слово. Более того, когда
К вопросу о принципиальной возможности создания…
«Штучний інтелект» 3’2010 31
1М
человек мысленно вспоминает какую-то ситуацию, то воспоминание не принимает
словесный вид по примеру: «Я был в светлой комнате большого размера, посредине
стоял стол, два мягких кресла, под стеной был шкаф с книгами. Все предметы имели
такой-то цвет, размер и другие характерные особенности. Еще были мужчина и
женщина. Они выглядели уверенно, были такого-то роста, имели такие фигуры,
формы лиц, одежду и т.п. С ними говорили о возможности построения систем
искусственного интеллекта. И так далее…». При таком описании много информации
(возможно и несущественной) утрачено. В памяти же ситуация возникает более
насыщенно, однако не абсолютно четко. Некоторые моменты всплывают в памяти
расплывчато (не так, как можно описать лингвистически). Кроме того, как для вос-
поминания, то это слишком долго – человек обычно вспоминает ситуацию мгновенно (и
при этом активизируется большая группа нейронов головного мозга, отвечающих за
сохранение информации от всех органов чувств). Соответственно, воспоминание не
принимает вид предложения или какой-то другой синтаксической конструкции.
В пользу этих рассуждений приведем вторую и третью аксиомы Сёрля «Чело-
веческий разум оперирует смысловым содержанием (семантикой)» и «Синтаксис сам по
себе не образует семантику и его недостаточно для существования семантики» [4, с. 27],
которые говорят о том, что самого манипулирования символами недостаточно, что-
бы гарантировать наличие смысла. Сёрль справедливо отмечает, что моделирование
процесса мышления не является самим процессом мышления. То есть программная
реализация компьютерных алгоритмов, даже способных осуществлять синтаксичес-
кий анализ лингвистических конструкций и предоставлять обоснованные ответы из
базы возможных вариантов, не наделяет систему интеллектом или настоящим пони-
манием сущности вопросов и ответов.
Для доказательства своих утверждений Сёрль привел вышеупомянутый мыс-
ленный эксперимент с «китайской комнатой». Комната в этом случае олицетворяет
искусственную систему, проходящую тест на интеллектуальность. В этом экспери-
менте человек, находящийся в комнате, корректно отвечает на вопросы на китайском
языке, которым не владеет, основываясь на определенных подсказках, содержащихся
в комнате (алгоритме поведения). При этом человек совсем не понимает, что именно
он говорит, соответственно, согласно Сёрлю, такое поведение, как и комната в целом,
не является интеллектуальным. Эта работа вызвала массу дискуссий о корректности
полученных выводов. Среди критиков Сёрля можно вспомнить, скажем, Поля и Пат-
рицию Черчлендов, в работе [12] которых кроме замечаний содержатся и пред-
ложения относительно создания систем искусственного интеллекта на базе нейрон-
ных сетей.
В целом в этой полемике доводы Сёрля выглядят более обоснованными. Одна-
ко критикуя нейронные сети (как и другие коннекционистские системы) в качестве
инструментария для реализации искусственного интеллекта, он приводит новый
пример с китайским языком, однако ответы на вопросы здесь дают уже множество
людей в гимнастическом зале (который бы вместил их всех), основываясь на тех же
правилах, что и человек в «китайской комнате». И показывает, что такая система
также не наделяется интеллектуальными свойствами. Сёрль отмечает [4, с. 28], что для
проведения расчетов последовательные и параллельные архитектуры абсолютно
идентичны: любое вычисление, которое может быть выполнено машиной с парал-
лельным режимом работы, может быть реализовано и машиной с последовательной
архитектурой.
Матвийчук А.В.
«Искусственный интеллект» 3’2010 32
1М
Нашим ответом на такой тезис будет то, что в нервной системе мысль не проте-
кает последовательно, переходя от одного нейрона к другому. Каждая мысль, любое
воспоминание одновременно активизирует большое количество нейронов, соответс-
твующих тому или иному образу, сохраненному в памяти ранее. Эти нейроны, в
свою очередь, вызывают активизацию в последующий момент большого количества
иных нейронов, соответствующих какому-то конкретному другому образу, ассоци-
ативно связанному с предыдущим. И в зависимости от того, какие именно нейроны
активизированы, в мыслях возникает тот или иной образ (возможно, в виде изображения
или общего восприятия окружающей среды, возможно, звука или лингвистического выс-
казывания и т.п.). Последовательная обработка информации не в состоянии обеспечить
подобный переход от одной группы многих вычислительных элементов (соответству-
ющей определенному образу) к другой группе в логической последовательности. Итак,
аргумент Сёрля с гимнастическим залом является несколько надуманным.
Однако полностью соглашаемся с тезисом, что синтаксис не обязательно нужен
для существования семантики. Подводя итог под приведенными выше примерами и
тезисами можно указать, что для реализации искусственного интеллекта важно
уметь оперировать образами, которые реализуют семантику, но их представление не
обязательно должно быть синтаксическим или, вообще, лингвистическим.
В восприятии человека семантика может быть представлена в виде словесных
выражений, однако для существования мышления это не является обязательным усло-
вием. Человек (как и другое разумное существо, например, та же собака) может
выстраивать логические последовательности без использования лингвистических
конструкций, основываясь лишь на каких-то образах. То есть для возникновения син-
таксиса семантика обязательна. Однако для существования семантики синтаксис, как
таковой, совсем не нужен. И парадоксальным выглядит тот факт, что хотя синтаксис
и является выше семантики (свойственен лишь наиболее интеллектуально развитому
живому существу – человеку), его мы можем воссоздать, а семантику пока что нет.
Просто существование семантики заложено на глубинных уровнях нашего сознания,
в самой основе функционирования разума. И если мы это осознаем, а не будем
пытаться воссоздать очевидные синтаксические конструкции и называть это интел-
лектуальными системами, у нас действительно может появиться шанс реализовать
сильный искусственный интеллект.
Если же строить системы искусственного интеллекта по принципу экспертного
установления логических правил в символьных категориях, то мы сознательно ис-
кусственно встраиваем в систему знания эксперта. Подобные системы не проду-
цируют новые знания – они, при условии внесения дополнительных усовершенс-
твований, получают лишь возможность оптимизации собственных параметров для
отобранных входных и выходных переменных. Природа шла иным путем.1
1 Не хотелось бы, чтобы у читателя сложилось впечатление (если он знаком с исследованиями
автора), что этими выводами критикуются результаты, полученные в предыдущих наших работах, в
частности [13], или поддается сомнению адекватность инструментария, выбранного для моделирования
сложных слабоструктурированных систем и процессов. Эти исследования базировались на методах
теории нечеткой логики, которая как раз оперирует лингвистическими термами и позволяет формиро-
вать логические конструкции. Этот инструментарий дает возможность адекватно моделировать объект ис-
следования в условиях существенной неопределенности, нестационарности исследуемых процессов, а
также нехватки или недостаточной достоверности статистических данных. И при этом совсем не стави-
лось целью воспроизведение процессов интеллектуальной деятельности и принятия решений человеком.
Хотя, отдавая дань справедливости, отметим, что в рамках общепринятой концепции инструментарий
нечеткой логики считается на сегодня одним из наиболее перспективных подходов к конструированию
систем сильного искусственного интеллекта.
К вопросу о принципиальной возможности создания…
«Штучний інтелект» 3’2010 33
1М
Логика подсказывает целесообразность сосредоточения внимания на констру-
ировании мозгоподобных систем и интерпретации расчетов в нейроподобных эле-
ментах. На наш взгляд, в качестве наиболее адекватного инструментария для воспроиз-
ведения умственных процессов различных живых существ могут выступать классичес-
кие искусственные нейронные сети, в частности, сети ассоциативной памяти. Как и в
биологических нервных системах, образы в нейронных сетях ассоциативной памяти
сохраняются, задействовав большие группы нейронов (в отличие от того же пер-
септрона, где обработка информации идет однонаправлено и, по большому счету,
последовательно).
Создание систем параллельной обработки информации предоставит возмож-
ность практически мгновенно решать чрезвычайно сложные задачи и время их реше-
ния не будет зависеть от количества нейронов, задействованных в расчетах. Это пре-
имущество становится все более очевидным по мере роста количества нейронов на
каждом уровне. Скорость обработки информации в таких системах практически не
зависит ни от числа элементов, которые принимают участие в вычислительном про-
цессе, ни от сложности функций, которые они рассчитывают. Также параллельный
характер системы делает ее нечувствительной к несущественным ошибкам и наде-
ляет ее функциональной устойчивостью: потеря нескольких связей, даже заметного
их количества, оказывает незначительное влияние на общий ход преобразования
данных сетью.
Параллельная система запоминает большое количество информации в распре-
деленном виде, при этом обеспечивается доступ к любому фрагменту этой инфор-
мации за чрезвычайно короткое время. Информация сохраняется в виде определен-
ных конфигураций весов отдельных синаптических связей, которые сформировались
в процессе предыдущего обучения. Обучение может осуществляться также и в фазе
обычной работы сети, основываясь на правиле Хебба (согласно которому чем чаще
активизируется межнейронная связь, тем более сильной она становится), что
отождествляет такое поведение с биологическим прототипом. Необходимая инфор-
мация освобождается по мере того, как входной вектор данных проходит и преоб-
разуется через эту конфигурацию связей подобно ассоциативной памяти живых су-
ществ, когда за одним сохраненным в памяти образом всплывает другой.
Этими образами могут быть, в частности, слова, составляющие предложения,
что и является реализацией синтаксиса – специфической мозговой деятельности выс-
шего живого существа – человека. При этом слова, из которых формируются пред-
ложения, характеризуются смысловым содержанием (и могут быть ассоциативно
связаны с визуальными, звуковыми или другими образами, сохраненными в памяти),
что наделяет их семантикой – главной характеристической чертой интеллекта.
Связи в таком случае в ассоциативной сети можно организовать как между
различными образами (объектами), так и между образами и отношениями между
ними (отношением является связующая конструкция, определяющая взаимозависи-
мость между образами). При этом от отношения снова можно перейти через систему
связей нейронной сети к одному из сохраненных в памяти объектов. Подобным
образом можно реализовать синтаксис в виде лингвистических структур, облада-
ющих смысловой нагрузкой. Но взаимосвязи здесь не будут жестко прописаны, как в
экспертных системах, а будут самостоятельно выделяться в процессе обучения,
организовывая семантически значимые синтаксические конструкции.
Матвийчук А.В.
«Искусственный интеллект» 3’2010 34
1М
Выводы
В работе указывается на два общепринятых подхода к построению систем ис-
кусственного интеллекта – семиотический (который воссоздает высокоуровневые
психические процессы в мозге человека и может быть реализован с применением
методов нечеткой логики) и биологический (который моделирует интеллектуальное
поведение на основе более мелких неинтеллектуальных элементов путем конструиро-
вания мозгоподобных структур и может быть реализован с использованием инс-
трументария нейронных сетей).
Важно отметить, что такое существенное преимущество нейронных сетей, как
параллелизм в выполнении расчетов, в определенной степени нивелируется нейма-
новской архитектурой современных компьютеров, где обработка информации осу-
ществляется последовательно. Если будут созданы компьютерные системы, способные
выполнять параллельные вычисления подобно обработке информации в человеческом
мозге, можно предположить принципиальную возможность реализации систем силь-
ного искусственного интеллекта на основе технологии искусственных нейронных
сетей при условии обеспечения возможности одновременной активации большой
группы нейронов.
До этого момента наиболее существенных результатов в направлении создания
систем искусственного интеллекта можно ожидать от исследований, основывающих-
ся на концепции Минского и Фейгенбаума [6], согласно которой обработка инфор-
мации осуществляется по принципу формально-логических процедур на основе язы-
ковых конструкций подобно тому, как происходит процесс мышления в левом полу-
шарии мозга человека. В таком случае пошаговую обработку информации можно
объяснить последовательным характером естественных языков и процесса полу-
чения человеком логических выводов.
Итак, большое количество исследователей в этой области науки склоняются к
тому, что для построения систем искусственного интеллекта имеет смысл применять
подходы, способные воспроизводить умственные процессы в мозге человека, в
частности, предусматривающие возможность реализации логических конструкций и
оперирования лингвистическими терминами. Так, согласно гипотезе Ньюэлла-Сай-
мона, для построения систем сильного искусственного интеллекта необходимо обес-
печить символьное представление знаний, которое не может быть реализовано средс-
твами классических нейронных сетей. Удовлетворить таким требованиям способны
системы, построенные, например, на основе инструментария нечеткой логики.
При этом применение технологии нейросетевого моделирования приобретает
особую важность в связи с необходимостью обеспечения возможности обучения
подобных экспертных систем (сами по себе системы на нечетких множествах спо-
собностью к обучению не обладают). Соответственно, для решения когнитивных задач
целесообразно создавать структурированные модели на основе связей (structured
connectionist models) или гибридные системы (hybrid systems), объединяющие оба
подхода. Как отмечалось выше, это обеспечит объединение свойств адаптивности и
робастности, характерных нейронным сетям, с представлением знаний, логичностью
и универсальностью систем нечеткой логики.
Отметим, что преимуществом нечетких систем является их способность обра-
батывать лингвистическую информацию и учитывать экспертные знания. Сила ней-
ронных сетей заключается в способности обучаться на данных. Между нейронными
сетями и нечеткими системами существует определенная синергетика, которая де-
К вопросу о принципиальной возможности создания…
«Штучний інтелект» 3’2010 35
1М
лает их гибридизацию важным инструментом интеллектуального управления и вы-
деляет их как один из наиболее прогрессивных подходов в направлении создания
систем искусственного интеллекта. Инструментарий теорий нечеткой логики и ней-
ронных сетей, как это было показано выше, полностью соответствует требованиям,
выдвигающимся к системам искусственного интеллекта (даже сильного, если пред-
положить принципиальную возможность его реализации).
Литература
1. Кухарев Г.А. Биометрические системы: методы и средства идентификации личности человека /
Кухарев Г.А. – Спб. : Политехника, 2001. – 240 с.
2. Turing A.M. Computing Machinery and Intelligence / A.M. Turing // Mind. – 1950. – October. – Vol. 59,
№ 236. – P. 433-460.
3. Searle J.R. Minds, Brains and Programs / J.R. Searle // Behavioral and Brain Sciences. – 1980. – Vol. 3,
№ 3. – P. 417-458.
4. Searle J.R. Is the Brain’s Mind a Computer Program? / J.R. Searle // Scientific American. – 1990. – Jan.–
№ 262. – P. 26-31.
5. Hinton G.E. Shape representation in parallel systems / G.E. Hinton // Proceedings of the 7th International
Joint Conference on Artificial Intelligence. – Vancouver, British Columbia 1981. – P. 1088-1096.
6. Minsky M.L. Steps towards artificial intelligence / M.L. Minsky // Proceedings of the Institute of Radio
Engineers. – 1961. – Vol. 49.– P. 8-30; Reprinted in: Computers and Thought (E.A. Feigenbaum and
J. Feldman, eds. – New York: McGraw-Hill. – 1963. – P. 406-450).
7. Mіnsky M.L. Perceptrons / M.L. Mіnsky, S.A. Papert. – Cambridge, MA : MIT Press, 1969. – 263 p.
8. Fodor J.A. Connectionism and cognitive architecture: a critical analysis / J.A. Fodor, Z.W. Pylyshyn //
Cognition. – 1988. – Vol. 28. – P. 3-72.
9. Newell A. Physical symbol systems / A. Newell // Cognitive Science. – 1980. – № 4. – P. 135-183.
10. Pylyshyn Z.W. Cognition and computation: Issues in the foundations of cognitive science / Z.W. Pylyshyn //
Behavioral and Brain Sciences. – 1980. – №. 3:1. – P. 154-169.
11. Newell A. Human Problem Solving / A. Newell, H.A. Simon. – Englewood Cliffs, NJ : Prentice-Hall, 1972. –
920 p.
12. Churchland P.M. Could a Machine Think? / P.M. Churchland, P.S. Churchland // Scientific American. –
1990. – Jan. – № 262. – P. 32-37.
13. Матвійчук А.В. Моделювання та аналіз економічних систем на підґрунті теорії нечіткої логіки:
дис. ... докт. екон. наук : 08.00.11 / Матвійчук А.В. – К., 2008. – 470 с.
А.В. Матвійчук
До питання про принципову можливість створення штучного інтелекту
У статті наводяться результати дослідження філософського та технологічного аспектів створення систем
штучного інтелекту. Розкрито різні підходи до конструювання інтелектуальних систем та показано
місце нейронечітких технологій у цьому процесі.
A. V. Matviychuk
On the Issue of Principal Possibility of Creation of Artificial Intelligence
There are presented in the article the results of researches of philosophy and technological aspects of building
of artificial intelligence systems. It's shown various approaches to construction of intelligent systems and pointed
the place of neural-fuzzy technologies in this process.
Статья поступила в редакцию 21.06.2010.
|