ИИ – экспериментальная философия
Источник: журнал «Знание – сила», №6, 1989. Автор: В. Сергеев, к.ф-м.н. Полное название статьи: «Искусственный интеллект – это ещё и экспериментальная философия».
«Искусственный интеллект» – это «мир мыслей», воплощённых в техническое устройство. Не будет преувеличением сказать: в середине XX века произошло необычайно важное для истории цивилизации событие – «мир мыслей» и мир технических устройств слились, впервые мысль, оторвавшись от человеческого тела, начала действовать самостоятельно.
Предметом экспериментальных научных исследований стал вопрос, занимавший крупнейших мыслителей прошлого; вопрос, традиционно считавшийся основой гуманитарной культуры: что называется мышлением? Вот как раскрывает его смысл один из крупнейших философов XX века Мартин Хайдеггер:
– Ответить на вопрос: «что называется мышлением?» – значит, во-первых, понять, что это такое, что значат слова «мысль» и «мышление». Во-вторых, разобраться, как традиционное учение рассматривает и определяет то, что мы назвали мышлением. В-третьих, установить предварительные требования, которые должны быть выполнены для того, чтобы мы были в состоянии правильно мыслить. И наконец, в-четвёртых, осознать, что заставляет нас мыслить, что зовёт нас в мышление.
Интеллектуальная одиссея
Успехи, достигнутые во второй половине нашего века в области компьютерной технологии, позволяют добавить к списку Хайдеггера ещё такие вопросы: как определить те операции над образами и понятиями, которые осуществляет человек в реальном процессе мышления? как разложить их на элементарные единицы, представить в виде «компьютерной программы»? Это и есть основная проблема науки об искусственном интеллекте.
Современным исследователям мышления уличный «здравый смысл» приписывает стремление всё на свете формализовать и тем обессмыслить творчество, создав механические суррогаты мысли. Реально происходит обратное. Программы искусственного интеллекта – это «метафоры мысли», требующие подъёма на новую ступень мышления. Решение проблем искусственного интеллекта потребовало от учёных создать совершенно новую научную культуру, в которой органически слились бы гуманитарные, точные и естественные науки.
К середине семидесятых годов в представлениях о мышлении произошла революция, полностью изменившая образ информационной технологии. Сформировалась концепция новой науки, когнитологии, предметом которой стало исследование взаимосвязи между конкретной человеческой деятельностью в различных предметных областях и теми интеллектуальными операциями, которые при этом производятся. Представления о мышлении как о едином для всех «жёстком» механизме, обрабатывающем данные, были отвергнуты. Мышление стало рассматриваться как совокупность знаний и операций над ними, наличие и способ употребления которых могут определяться особенностями культуры и индивидуальной истории.
Такой подход дал толчок интенсивному объединению психологии, лингвистики, логики с экономикой, наукой об управлении, политологией, историей культуры. Ведь только изучая конкретную предметную деятельность, можно понять организацию человеческих знаний и структуру интеллектуальных операций. Не следует, однако, закрывать глаза на то, что искусственный интеллект, научная дисциплина, к середине восьмидесятых годов имевшая на своём счету множество достижений, ставшая основой ряда новых технологий, во многих отношениях даже не приблизилась к уровню постановки вопроса о природе мышления, достигнутому мыслителями-гуманитариями, как это видно хотя бы из приведённого выше текста М. Хайдеггера. И эта ситуация начала серьёзно беспокоить ряд крупнейших специалистов в области искусственного интеллекта.
Несколько месяцев назад мне довелось обсуждать эту проблему в лаборатории искусственного интеллекта Массачусетского технологического института. В известном смысле можно констатировать, что сейчас происходит перелом во взглядах на искусственный интеллект того же масштаба, какой произошёл в конце шестидесятых годов в связи с кризисом традиционных кибернетических концепций. На первый план выходит проблема порождения знаний, что потребовало критического пересмотра всех основных концепций искусственного интеллекта. Многие весьма авторитетные учёные, классики искусственного интеллекта, неожиданно сблизились в своих взглядах с критиками этой теории.
Правда, надо заметить, что и критика заметно смягчила за последние годы свои позиции. В центре внимания последних дискуссий оказалась книга Т. Винограда и Ф. Флореса «Понимающие компьютеры и восприятие: новые основания для конструирования», вышедшая в США в 1986 году, где подчёркивается огромная роль для мышления «скрытых знаний», не выражающихся явно в языке, но хранящих в себе жизненный опыт. Выявить и описать их исключительно трудно. Книга написана под большим влиянием всё того же М. Хайдеггера и – шире – под влиянием гуманитарной традиции. Исследователи искусственного интеллекта, преодолев технократические установки, обратились наконец к тем интеллектуальным сокровищам, которые были накоплены за тысячелетия анализа «мира мыслей».
Широко признано, что огромная работа философов над загадкой человеческого мышления, ведущаяся на протяжении мног их веков, перестала быть чистым умозрением. Оказалось, что идеи Лейбница, Канта, Гуссерля, Хайдеггера – это концептуальные модели, которые в принципе могут быть экспериментально проверены с помощью программ искусственного интеллекта. Споры между мыслителями – это в значительной мере те же вопросы, что возникают при создании тех или иных интеллектуальных программ для ЭВМ. Вот почему «Новый опыт о человеческом разуме» Лейбница или «Критика чистого разума» Канта, «Логические исследования» Гуссерля или «Время и Бытие» Хайдеггера – это сейчас книги, постоянно цитируемые исследователями в области когнитологии и искусственного интеллекта. Философские работы по герменевтике – области знания, имеющей своим предметом процессы интерпретации человеком действительности и текстов, – становятся основой алгоритмов программ, понимающих естественный язык. Работы по семиотике, науке о знаковых системах, – основой построения программ диалога человек – ЭВМ. Развитие подобных весьма абстрактных идей и составляет ту «шубу» знаний, без которых невозможно конструирование интеллектуальных программ.
Экспериментальная философия
Любопытно рассмотреть, как развивались идеи искусственного интеллекта и в какой степени их эволюция сопоставима с движением философских идей о природе и структуре человеческого разума.
В самом начале развития кибернетики в сороковых годах шла острая борьба двух точек зрения на интеллект. Одна из них состояла в том, что, моделируя разум, нужно создавать устройство, которое будет само обучаться при взаимодействии с внешним миром, другая – в том, что искусственная модель разума это машина с памятью, системой команд и программой, которые закладываются извне и предопределяют действия машины.
Не нужно много усилий, чтобы установить полное тождество ведшихся тогда споров со спором между Локком и Лейбницем, имевшим место за 250 лет до того. Локк рассматривал разум как «чистую доску», на которой ощущения, приходящие от органов чувств, отпечатываются в виде «идей». Интересно отметить, что Локк игнорировал язык как средство программирования деятельности разума. Для него слова – знаки идей, а идеи у каждого разума свои, отсюда трудности в понимании. Теория языка у Локка чисто символическая: язык не несёт в себе «структуры знания», а является лишь набором условных знаков.
В противоположность этому Лейбниц рассматривал разум не как «чистую доску», а как хранилище знаний, или, как сказали бы мы сейчас, в наш компьютеризированный век, «базу знаний», – совокупность специализированных программ, подключающихся к работе по мере необходимости. Отсюда и совершенно другой взгляд Лейбница на язык, попытки создания точного логического языка, отражающего универсальную структуру знаний о мире, своего рода точного средства программирования. Эта идея предвосхищает современные идеи создания языков программировании для компьютеров.
Представлении Локка через посредство бихевиористской психологии перекочевали в кибернетические работы пятидесятых-шестидесятых годов по распознаванию образов. Именно исходя из этих принципов были построены перцептроны – установки для моделирования восприятия. Поскольку ничто не мешало моделировать их на универсальной ЭВМ, появились компьютерные программы, способные обучаться отличать один зрительный образ от другого. Локковская идея о распознавании как основе мышлении легла в основу попыток известного советского учёного М. Бонгарда создать универсальные обучающиеся программы.
«Лейбницевская» же линия развития искусственного интеллекта положила начало программам, понимающим естественный язык, способным доказывать математические теоремы и т. п. Первоначально попытки создавать такие программы делались в рамках «эвристического программирования». Знания, необходимые для решения конкретных задач, закладывались как набор различных «эвристик», из них методом проб н ошибок подбиралась подходящая для данного случая.
Между тем вопрос о статусе «эвристик», их иерархии в процессе создания интеллектуальных программ оказался фундаментальным. И это – проблема далеко не новая. Ещё в XVIII веке Дэвид Юм обратил внимание на то, что одна из эвристик, эвристика «причинности» имеет совершенно особый статус. Она является, так сказать, «универсальной объяснительной схемой» и имеет, по существу, статус логического закона – «закона достаточного основания»: нельзя представить себе событие, которое не могло бы быть объяснено с помощью идеи причинности. Радикальный вывод Юма, отвергнувшего возможность использования причинности как логического понятия, был по существу развитием взглядов Локка на природу разума, согласно которым не допускались априорные знания. Точка зрения Юма на подобные эвристики была оспорена Иммануилом Кантом, обосновавшим существование «априорных синтетических суждений», таких, как понятие причинности и представление о времени и пространстве.
Опыт создания программ искусственного интеллекта даёт экспериментальную возможность разрешить и эти философские споры о природе разума.
Теория «чистой доски» оказалась несостоятельной – выяснилось, что возможности универсальных распознающих устройств ограничены, а та «чистая доска», на которую записываются данные опыта, должна иметь, весьма сложную структуру, включающую массу априорных знаний о мире. В последние годы обнаруживается необходимость вводить «универсальные объяснительные схемы, или «когнитивные клише», в программы искусственного интеллекта. Тем самым экспериментально решается спор между Юмом и Кантом. Остановимся немного более подробно на «универсальных объяснительных схемах». Мне приходилось много заниматься разработкой программ искусственного интеллекта, предназначенных для понимания политических текстов. Как оказывается, универсальных объяснительных схем – великое множество.
Приведу несколько примеров. В эпоху Великой французской революции важным элементом революционной политической культуры стала универсальная объяснительная схема, согласно которой все трудности и неудачи являются результатом козней врагов революции. Эта схема неопровержима. Чрезвычайно трудно доказать, что те или иные неприятности не являются следствием чьего-то субъективного замысла. После того, как эта схема действительно стала неотъемлемой частью коллективного сознания (на это понадобилось около двух лет), любой донос приобрёл абсолютную силу – он лишь подставлял того или иного субъекта в готовую рамку, применимую в любых обстоятельствах, и потому был неопровержим.
Другой пример универсальной объяснительной схемы – распространённый способ отношений к любым взаимодействиям с партнёром как к шахматной игре. Это снова готовая рамка для понимания ситуации, навязывающая, хотя неявно, сугубо конфронтационные отношения (кто-то выигрывает, кто-то проигрывает, иногда ничья, но ни в коем случае не возможно кооперативное поведение, скажем переговоры) при которых обе стороны остаются и выигрыше.
Универсальные объяснительные схемы – жёсткое знание, являющееся коллективным социальным продуктом мышления. Как писал крупнейший немецкий социолог Карл Манхейм, «Строго говоря, некорректно заявлять, что отдельный человек думает. Гораздо более корректно настаивать на том, что он продвигается в мышлении дальше, чем люди, думавшие до него. Он находит себя в унаследованной ситуации с образцами мышления, приспособленными для этой ситуации, и пытается разработать дальше унаследованные способы реакции или заменить некоторые из них для того, чтобы более адекватно работать с новыми вызовами, которые возникают в результате сдвигов и изменений в его ситуации».
Теория искусственного интеллекта обосновывает необходимость универсальных объяснительных схем – без них практически невозможно эффективно организовать работу интеллектуальных программ. И здесь теория ИИ смыкается с социологией знания.
Для теории ИИ, для социологии знания и для других гуманитарных дисциплин – философии, филологии – чрезвычайно важным вопросом является выяснение того, каким образом формируются универсальные объяснительные схемы. Это – очень сложный вопрос. Пока можно сказать одно: этот процесс происходит в результате последовательного применения специальных процедур, «удостоверяющих» знания, из которых важнейшие – это метафоры (вспомним «метафору шахмат»), а также использование примеров, поскольку метафоры, не разъяснённые примерами, повисают в воздухе. Последовательность: метафора плюс пример – это стандартная структура притчи; в частности, так устроены все евангельские притчи. Метафора, подкрепляемая многочисленными примерами, понемногу превращается в универсальную объяснительную схему. Так прорастают друг в друга философия, социология и теория искусственного интеллекта.
Философские построения влияют и на структуру компьютерных программ понимания естественного языка. Сейчас есть два основных подхода к построению таких программ: один базируется на идеях лингвистической философии, в основу другого положены идеи герменевтики.
Основная идея лингвистической философии – анализ смысла слова путём разложения его на «семантические компоненты», элементарные смысловые единицы, а затем использование разного рода логических исчислений для представления смысла. Герменевтический подход радикально иной. Он видит в каждом слове потенциальную бесконечность смыслов. Актуальный смысл слово приобретает в конкретном контексте, который сужает, обрезает потенциальную смысловую бесконечность. Конечно, о разложении смысла на составляющие при таком подходе говорить не приходится. Структура контекста – вот центральная проблема изучения смысла при герменевтическом подходе.
Эти две глубоко различные парадигмы породили и различные программы лингвистических исследований.
Первый подход дал замечательные результаты в лингвистической семантике при изучении структуры слова, но оказался практически бессильным в вопросах изучения текста как целого. Современная лингвистика текста, напротив, опирается на герменевтический подход, И именно здесь приобретают огромное значение обсуждавшиеся выше универсальные объяснительные схемы. Выясняется, что они становятся скелетом контекста, задают рамки для герменевтического толкования смысла слова.
Совершенно различными оказываются и стратегии построения структуры компьютерных программ для понимания естественноязыкового текста, опирающихся на эти парадигмы.
Идеи лингвистической философии используются в компьютерных программах для анализа естественного языка уже около двадцати лет. Герменевтические идеи только начинают входить в научный арсенал, интерес к ним непрерывно растёт, свидетельством чему, в частности, большой успех упомянутой ранее книги Т. Винограда и Ф. Флореса, где эти идеи пропагандируются (Терри Виноград – автор одной из первых компьютерных программ, понимающих естественный человеческий язык).
Последние годы, как в результате внутренней логики развития, так и под влиянием критики со стороны философов, исследователи в области искусственного интеллекта самым серьёзным образом обратились к изучению «практического» неосознаваемого знания, позволяющего нам жить и действовать в окружающем нас мире.
Хайдеггер настаивал на том, что оно составляет основную невидимую часть того айсберга знаний, которыми пользуется человек, и что осознаваемое знание это лишь тонкий поверхностный слой, ни в коей мере не определяющий творческие способности человека. По Хайдеггеру, человек живёт в мире и в языке, будучи «заброшен» в них, не понимая и ничтожной доли того, с чем имеет дело и чем пользуется. Так, например, язык «говорит» человеком, а не человек – языком. Заметим, что эта точка зрения очень близка к поэтической точке зрения на язык и мышление – достаточно вспомнить, например. Тютчева, Рильке, Пастернака, Бродского.
Такой взгляд на творческий процесс имеет глубокие последствия для развития искусственного интеллекта. Возможны два пути интеграции этих идей в исследовании по созданию искусственного разума. Один – ориентация на устройство типа «нейрокомпьютер», то есть создание не разума, в мозга, который, будучи снабжён некоторыми начальными знаниями – универсальными объяснительными схемами, – бросается в мир опыта, самопрограммируясь и обретая новые знания, структура которых может быть непонятна и недоступна создателю устройства.
Другой путь – работа по обнаружению знаний, скрытых в языке, выявление скрытых механизмов творчества, «герменевтика творчества». Это – путь, требующий огромных интеллектуальных усилий от создателей компьютерных программ, предполагающий глубокое проникновение в структуру гуманитарного знания и, может быть, более полезный для гуманитарных дисциплин как путь самопознания человека, чем для решения конкретных технических задач. Однако же и многие технические задачи по созданию интеллектуальных устройств, в особенности обеспечения понимания естественного языка, просто не могут быть решены в обход этого пути.
Трудности и препятствия
Итак, искусственный интеллект – это невероятный ранее, казавшийся абсурдным синтез технической, инженерной дисциплины – конструирования программ, и ряда как гуманитарных, так и естественных наук: лингвистики, психологии, нейрофизиологии и прочих, но и одновременно «экспериментальная философия», фантастическая ещё недавно возможность проверки самых тонких и абстрактных гипотез о природе человеческого разума. Каковы же социальные последствия рождения столь загадочной науки? Я не буду говорить о последствиях возможных применений – об этом сейчас написаны десятки книг. Почти не освещённым остаётся совершенно другой вопрос: каковы последствия развития ИИ для самой науки, как для её структуры, так и для перспектив будущего развития. И здесь начинается далеко не самая весёлая часть моего рассказа.
Искусственный интеллект перебрасывает мост над так виртуозно описанной Чарлзом Сноу пропастью между «двумя культурами» – гуманитарной и естественненаучной. Разделение это, даже известный антагонизм в европейской культурной традиции утвердились достаточно прочно, ни с той, ни с другой стороны не видно никакой радости по поводу попытки подобный мост построить. Даже в такой эмансипированной от жёстких традиций стране, как США, работа в области искусственного интеллекта, несмотря на огромную актуальность применений, в течение полутора десятилетий вызывала град насмешек, испытывала серьёзные трудности с финансированием. Сейчас этот этап преодолён – все основные университеты готовят специалистов этой области, издательства в США предлагают немыслимое разнообразие книг, в название которых входят слова «искусственный интеллект» и «экспертные системы», издаются десятки научных журналов.
Однако по-прежнему со стороны различных научных сообществ, так или иначе соприкоснувшихся с исследованиями в области искусственного интеллекта, – специалистов по вычислительной технике, программированию, психологов, социологов – отношение достаточно настороженное, а иногда и враждебное. Слишком радикальную ломку самой структуры науки предполагает это предприятие. Слишком высокие требования предъявляет новая дисциплина к научной подготовке специалистов – очень высокий уровень образования в нескольких ранее не связывавшихся между собой областях знания.
Какова же ситуация в нашей стране? Но это – тема для другого рассказа, к сожалению, очень печального.