Модели эмоций
Источник: журнал «Знание – сила», №1, 1965 год, автор: Р. Подольный
С точки зрения иных философствующих фантастов робот уже тем совершеннее человека, что обходится без чувств. Выходит, будто чувства нужны лишь в часы досуга, чтобы наслаждаться музыкой, стихами, живописью. А работе все эти «сантименты» только помеха.
У всего живого есть беспощадный экзаменатор – эволюция, которая вырубает то, что вредно для организма. Именно поэтому люди не имеют когтей, густой шерсти. А эмоции? Они становятся шире и тоньше, приобретают всё большую важность в жизни человека.
А раз чувства не только сохранились, но и развиваются – значит они нужны. Одни из них играют сигнальную роль: голод отправляет льва на охоту, а человека – в столовую.
Страх, ярость – и люди перепрыгивают пропасти, ломают руками тюремные решётки. Сильное чувство словно командует: «все наверх» – скрытым силам организма. В нём предусмотрена возможность как бы переключения на форсированный режим, как на корабле. А роль капитана, отдающего команду о переключении, играет достаточно сильная эмоция.
Не будем дальше перечислять все те случаи, когда эмоции оказываются необходимы – их слишком много. Скажем лишь об одном ещё, может быть, самом сложном.
Вот Ромео видит Джульетту и влюбляется в неё с первого взгляда. Дэвид Копперфильд с первого же взгляда чувствует отвращение к Урии Гипу.
Разве каждому из нас незнакомы по личному опыту такого рода впечатления?
При первой встрече с человеком он не оставляет вас безразличным – он нравится или не нравится. Чем это объясняется? Мозг на основе огромного опыта провёл анализ того, что вы увидели и услышали, сравнил с тем, что известно ему о других нравившихся и не нравившихся вам людях, и выдал результат анализа в виде эмоции. Логический осмысленный анализ провести так быстро нельзя. «Сердце» обгоняет здесь разум. Происходит, собственно, предвосхищение, предвидение будущего. И пусть первое впечатление не всегда оказывается верным. Как известно, даже прогнозы погоды не всегда сбываются.
Вообще, эмоция часто оказывается оценкой ситуации, в которую попал человек. За «неприятным осадком», от разговора или «бодростью духа», всегда стоят реальные житейские обстоятельства.
Исследуя роль эмоций для человека, профессор Н. М. Амосов пришёл к очень любопытной и многообещающей гипотезе.
Как известно, сигналы, поступающие от органов чувств в мозг, подвергаются там обработке.
И – обратите внимание – из одних и тех же фактов разные люди часто делают разные, иногда даже противоположные выводы. И даже одни и те же люди, но в разном настроении. Посудите сами. Если вам в весёлую минуту кто-нибудь наступит на ногу (не очень больно), дело ограничится взаимным «простите».
Ну, а в минуту, когда вы раздражены?
Амосов объяснял это тем, что сигналы в мозгу проходят обработку в соответствии с двумя хранящимися там программами – эмоциональной и интеллектуальной. Мышление, с точки зрения гипотезы Амосова, есть постоянное взаимодействие этих двух программ.
Относительное значение двух программ у людей неодинаково. У одних решающую роль играет, по-видимому, интеллектуальная, у других – эмоциональная программа. Быть может, в этом коренная причина существования двух основных типов высшей нервной деятельности (по И. П. Павлову) – художественного и мыслительного.
Этого не может быть, потому что этого не может быть никогда.
(А. П. Чехов «Письмо к ученому соседу»).
СТУДЕНТ ИЗ ЛЕНТ
Ему двадцать лет. Он – студент Киевского политехнического института. Друзья ласково зовут его Эмиком. Впечатлительный, порывистый, остроумный, он сумел справиться с двойным ударом судьбы: ушла к другому невеста, первая научная работа была напечатана под чужим именем – украдена, попросту говоря. Но Эмик всё-таки остался оптимистом. Конечно, большой недостаток нашего героя то, что с ним не всегда легко поддерживать разговор. 280 слов – вот и весь его багаж. Для студента позорно мало. Но не торопитесь осуждать Эмика. Ведь у этого начинающего исследователя и незадачливого влюбленного есть ещё одно, уникальное, качество: вместо плоти и крови он состоит из перфорированных лент – длинных полосок бумаги, покрытых дырочками. Эмик не человек, а только отдалённая модель человека.
Не надо удивляться самому сочетанию этих двух слов. С моделями человека мы встречаемся чаще, чем кажется. Статуя Венеры Милосской и самый обыкновенный манекен в окне магазина тоже модели человека. Только модели его внешнего облика.
Главное требование к модели – это, чтобы в определённых условиях модель вела себя так же, как её прототип.
Вовсе не обязательно, чтобы модель оказалась точной его копией. Никто не ждёт от модели ТУ-104, что та начнёт перевозить пассажиров, и модель «Москвича» не отправится с хозяином в кабине за город. Эти модели, впрочем, хоть внешне похожи на свои прототипы. Но как быть с «атомом Бора» – моделью строения атома, предложенной датским физиком Нильсом Бором? Теперь она устарела. Учёные твердо знают, что не носятся шарики-электроны вокруг шарика атомного ядра. Но сколько открытий было сделано с помощью модели Бора!
Так, вероятно, будет и тут. Самую обыкновенную электронно-вычислительную машину уже можно рассматривать как модель человеческого мозга. (Говоря точнее, собственно, не машину, а программу её работы). Ведь есть же закономерности, общие и для мозга и для такой машины. (Недаром один известный ученый так и назвал свой большой труд – «Мозг как вычислительная машина».) И какой бы сложной ни казалась электронно-вычислительная машина, это – неслыханно упрощённая модель сложнейшей из известных человеку вещей.
Но после игрушечного грузовичка для ребёнка приходит пора постройки модели ГАЗ-63 с бензиновым моторчиком. Модели становятся сложнее, всё больше у них общего с тем, что моделируется.
И в кибернетике пришла пора для студента из бумажных лент, для мечтательного и порывистого Эмика, легко впадающего в печаль, приходящего в гнев, умеющего радоваться и огорчаться...
И всё это говорится о машине?! Нет, не о машине, собственно. О программе для машины. О программе, задача которой – моделирование человеческих эмоций. Сразу оговоримся – речь пойдет только о моделях эмоций. Моделях настолько простых, что печаль и гнев, радость и страх надо бы ставить в кавычки. Да слишком много тогда понадобится для этой статьи кавычек! Машина, разумеется, не может переживать – она производит действия, в чём-то аналогичные переживаниям. В очень небольшом «чём-то». Но аналогичные!
...Есть в Киеве место, название которого вы знаете, даже если и не успели еще побывать в зелёной украинской столице. Речь идёт не о славном Крещатике, а о несколько мрачноватой Лысой горе. Читали, верно, у Гоголя хотя бы, про ведьм с Лысой горы. Или слышали симфоническую картинку Мусоргского «Ночь на Лысой горе».
Ну а сегодня на Лысой горе засели кибернетики. Здесь, в институте кибернетики, которым руководит академик Глушков, в отделе биокибернетики, возглавляемом профессором Амосовым, и создаётся Эмик. А прямые-родители и воспитатели Эмика – группа очень и не очень молодых людей.
В ней два инженера и физиолог, два врача и психолог и шесть математиков. Двенадцать человек, поставивших своей целью промоделировать эмоции, дать машине «чувства» (здесь мы ещё ставим кавычки, но дальше вам придётся каждый раз представлять их мысленно).
ЗАЧЕМ?
Но зачем, зачем машине эмоции? В конце концов, у машин есть только одна задача – работать.
...В первом литературном произведении о роботах (оттуда пришёл и сам этот термин), пьесе К. Чапека «РУР» есть такая сцена. Героиня спрашивает у учёного:
«Если вы не даете им души, зачем вы хотите дать им боль?!»
И слышит ответ:
«В интересах производства... – боль – автоматическая защита от увечья».
Гениальный писатель поставил в 1920 году проблему, к которой наука пришла только через сорок лет.
Эмоции понадобятся машине именно в производственных интересах. Дело, конечно, уже не в увечьях. Конкретный пример: перевод. Машины уже работают как переводчики. Но увы, им по силам перевод только технического текста. И как раз потому, что технический текст беднее любого другого эмоциями. В литературном тексте – рассказе, романе, стихотворении – каждое слово несёт столько тончайших эмоциональных оттенков, что при переводе руководствоваться только словарём, даже самым полным, нельзя.
Стихотворение Лермонтова, начинающееся словами «На севере диком», – перевод стихов Гёте. Перевод, казалось бы, не очень точный. В нём на месте кедра стоит сосна, есть и другие смысловые замены. Не сохранил Михаил Юрьевич и точный размер подлинника. Однако всё это не только не удаляет перевод от подлинника, но приближает его к нему.
И нет лучшего перевода этих стихов, потому что великий русский поэт передал главное в стихотворении – чувства великого немецкого поэта.
Сколько можно привести таких примеров!
Конечно, никто не надеется, что машина сможет переводить с лермонтовской силой. Но и минимальные требования, которым должен удовлетворять перевод, включают в себя эмоциональную окраску предложений. А ведь говорят уже и о машине-редакторе... Машина-композитор сейчас «выдаёт» простенькие мелодии. Если мы захотим сделать их более сложными, дать машине внутренний критерий для отбора лучших из них, её придется снабдить эмоциями.
Впрочем, всё это – примеры частные Есть и более общие. Сейчас при решении машиной задач широко применяется принцип эвристического (от эврика – нашёл) программирования.
Человеку, скажем, надо было бы провести решение определённой задачи в четыре последовательных приёма. Машине программируют знание этих приемов в той же последовательности. Машина шаг за шагом повторяет путь, которым в аналогичных случаях идёт человеческое мышление. Такой метод программирования одержал много побед. Но в то же время на его пути оказалось неожиданно много препятствий.
Каждый следующий шаг человека при решении вызван какими-то потребностями и мотивами. А машина потребностей и мотивов не знает. Вместо этого приходится делать программу чрезмерно жёсткой, слишком многое надо учесть заранее, предусмотреть даже детали каждого очередного шага. Ну, и соответственно становится меньше задач, для решения которых данная программа пригодна. Плохо? Конечно.
Не поможет ли тут моделирование эмоций? Не даст ли машине появление моделей чувств недостающие «потребности» и «мотивы»? Многие кибернетики полагают, что главные недостатки эвристического программирования будут устранены, если дать машинам подобие эмоций.
И, наконец, дело в принципе. Для машины идеал, пусть пока недосягаемый, именно человек Если человек не может обойтись без эмоций, вряд ли это удастся во многих случаях и машине.
Вспомните, что с точки зрения кибернетики человек – образец системы, гибко изменяющей линию поведения, контролирующей свои поступки, идущей, если нет других, свежими, неторными путями.
Ещё один, решающий довод в пользу моделирования эмоций относится уже к области медицины, в частности, медицинской психологии и психиатрии. Современная психология, при всей своей внешней изощренности, самая несчастная из наук. Уж очень сложен и изменчив объект её исследования – человек.
И так трудно в экспериментальных условиях вызвать у человека искренние страх, гнев, радость, не говоря уже о любви, скупости и других сложных чувствах. Ведь доброволец, пришедший к психологу, знает, что находится в условиях опыта. А психиатрия, изучающая психические болезни?
Когда ставит опыты микробиолог, он моделирует на морской свинке ход болезни у человека. Душевную болезнь трудно промоделировать даже на шимпанзе
А на машине? По-видимому, вполне возможно – опять-таки со скидкой на упрощение. Но ведь между морской свинкой и человеком тоже есть некоторая разница.
КАК?
В общем, вы, наверное, уже согласились, что эмоции нужно моделировать. Но, кроме слова «нужно» в русском языке есть слово «можно». Нужно, но можно ли? И вот тут нам придётся возвратиться к киевскому бумажному студенту – Эмику. Впрочем, не сразу. Эмик – последняя и пока самая сложная, но отнюдь уже не первая модель человеческих эмоций. Это сравнительно высокая ступенька на лестнице машинной эволюции. А начать надо, как в биологии, с простейших.
В эволюции живых существ первым зачатком эмоций было ощущение. Капелька живой протоплазмы стремилась выбраться из тени на солнце. И с того же начали знаменитые кибернетические «черепахи» – те, что тоже умеют ехать на своих колёсиках к зажжённой лампочке или подзаряжаться электрической энергией с помощью штепселя на стенке.
Машину можно заставить воспринимать определённые сигналы как порицание, штраф. Тогда она будет избегать действий, в результате которых следует штраф.
И на свет появилась как будто простая модель. «Черепаха» («всамделишная», то есть механическая, или её математическое описание – в принципе это неважно) подвергается (не одновременно) двум видам воздействий. (Например, на неё падает из одного источника обычный световой луч, из другого рентгеновские лучи). Одно воздействие вредно, другое полезно. «Черепаха» ползёт к источнику полезного воздействия и уползает от источника вредных лучей.
С точки зрения кибернетики, в механизме «самоуправления черепахи» есть два этажа. Один ведёт самим движением, другой определяет направление этого движения по принципу «хорошо-плохо» – к источнику лучей или от него. Работа второго этажа уже имеет что-то общее с эмоциями, ведь те тоже определяют отношение живого существа к новому для него явлению.
Но можно ввести добавочно и третий «этаж», управляющий уже быстротой движения. Быстроту можно сделать зависимой, скажем, от силы вредного воздействия. Если оно очень велико – «черепаха» пускается бежать со всех ног. Так моделируется способность эмоций переводить организм на «аварийный режим».
А не так давно в США был создан предшественник киевского Эмика – уже сравнительно сложная модель эмоциональной деятельности человека. Её создатель, ученый Дж. Лоуэллин дал своей модели название «Личность Олдос». У Олдоса немало общих семейных черт с нашим Эмиком. Прежде всего – вид. И Олдос ведь тоже – пачка перфолент. Все свойства личности были записаны в виде чисел, все новые сведения в неё вносили в виде чисел, и в виде чисел же машина, в которую ввели программу Олдоса, давала свои ответы. Ответы эти соответствовали возникавшим в ней подобиям эмоций.
Три вида эмоций знал Олдос. Одни сочетания цифр ему «нравились», другие вызывали страх или гнев. И страх и гнев могли быть слабыми и сильными по шкале в девять баллов. Когда Олдос испытывал страх, он совершал математические операции, условно названные отступлением. При гневе же наступал, «кидался в атаку», разумеется, тоже условно. Но сами эмоции ему непосредственно не задавались. Он их «вырабатывал». В машину вводили семизначное число. Первые три цифры в нём играли роль описания новой ситуации: последние четыре говорили о том, что эта ситуация сулит Олдосу. И Олдос начинал заниматься анализом. У него была память, в которой хранились 750 чисел. Он сравнивал новое число со старыми и «припоминал»: какие эмоции вызывали те из них, что наиболее похожи на новое, были они «вредны» или «полезны», то есть сопровождались или не сопровождались штрафом.
Но у человека возникающая эмоция зависит ведь не только от такой памяти. Если вы, например, утром в день своего рождения вывихнули ногу, подарки не доставят вам ожидаемого удовольствия. На нашем настроении отражаются только что испытанные чувства. И для моделирования этого обстоятельства у Олдоса имелась, кроме «постоянной памяти», ещё память кратковременная. В ней хранились сведения о самых последних «переживаниях». Если машина уже была испугана, новая ситуация вызывала обычно более сильный страх, чем в случае если перед этим машина приходила в гнев. Чтобы ещё приблизить модель к человеку, для неё запрограммировали определенный процент ошибок в опознании ситуации. Как и человеку, Олдосу свойственно ошибаться. Числа, сулящие опасность, он в шести процентах случаев принимал за благоприятные, и наоборот.
Дали Олдосу и характер. Вернее, не Олдосу, а Олдосам – похожих программ, отличающихся друг от друга только деталями, было изготовлено несколько.
Один Олдос был сделан нерешительным. Он избегал действий; начинал «отступать» только при очень сильном страхе, а наступать только при очень сильном гневе.
Благодаря этому Олдос избежал ряда неприятностей – штрафов, но и не получил часть возможных «удовольствий» – не забудьте, кроме гнева и страха, у Олдоса есть ещё некая положительная эмоция. Да и когда эмоции были достаточно сильны, наступление и отступление совершались очень осторожно и медленно. А решительный Олдос, наоборот, при малейшем испуге обращался в бегство, а приходя в гнев, кидался в стремительную атаку. Это влекло за собой больше неприятностей, но и больше удовольствий.
Олдос умеет в известных пределах накапливать опыт, память его обогащается знанием новых ситуаций, и поведение в связи с этим кое в чём изменяется.
Одного Олдоса, например, поместили во враждебную обстановку. Большинство ситуаций вызывали у модели отрицательные реакции – гнев и страх. А приятного она видела мало. И этот Олдос очень быстро стал... пессимистом. Помните запрограммированные шесть процентов ошибок при опознании чисел-ситуаций? Так вот, эти ошибки приобрели общий характер. Олдос принимал благоприятные ситуации за вредные. Мало того, когда он побыл во враждебной среде долго («пережил» несколько сот главным образом неприятных ситуаций), то число пессимистических ошибок даже превысило отпущенные человеком шесть процентов. У страха глаза велики!
А другой Олдос в благоприятной обстановке (почти все ситуации вызывают положительную эмоцию), естественно, стал оптимистом. И ошибался, принимая вредные ситуации за полезные.
Ну, а что если пессимиста перевести в дружественную среду, а оптимиста во враждебную? Скоро ли и как они приспособятся к новой обстановке?
Выяснилось, что это зависит от опыта. И богатый опыт оказался здесь скорее вреден. Чем больше ситуаций знал Олдос до перемены, тем дольше он изменял свое поведение. Установившиеся привычки при перемене образа жизни мешают. Модель ведёт тут себя как человек.
Итак, неудачнику начинает везти, а на былого удачника обрушиваются удары судьбы. Кто из них быстрее войдет в ритм новой жизни? Или они это сделают одновременно? Нет! Оптимист быстрее приноравливается к невзгодам, чем пессимист – к успехам. Выходит, даже машина подтверждает пользу оптимизма!
Естественен вопрос: наверное, это было пред усмотрено программой? Вы знаете, специально – нет. Сами учёные, ставившие опыты, были несколько удивлены этим результатом. Потом, конечно, они нашли для него объяснение в некоторых тонкостях программы, но отнюдь не простое и не прямое.
И как ни проста личность Олдос, в её поведении уже видны кибернетикам отдельные черты, подобные некоторым особенностям человеческой личности. Значит, опыт был удачным. Моделирование эмоций в принципе оказалось возможным.
ИТАК, ЭМИК
Кстати, почему именно Эмик? Откуда взялось это имя? Насколько я понял, новая программа обязана своим прозвищем двум обстоятельствам. Во-первых, первые две буквы в этом имени те же, что и в слове эмоция. А во-вторых... так зовут друзья одного из членов авторского коллектива – Эмика. А теперь о существе дела.
Наш киевлянин несравненно сложнее своего американского родственника по имени Олдос. Тот знает только удовольствие, страх и гнев. Эмик по замыслу своих создателей должен испытывать и печаль, и тревогу, и любопытство, и негодование, и горе, и обиду, и жалость, и многие другие эмоции. И не только испытывать, но выражать их. Однако как? Хорошо создателям Олдоса – наступление и отступление так естественно соответствуют гневу и страху. Как сделать доступными выражению многочисленные и куда более тонкие эмоции?
А как их выражает человек? Ну, разумеется, улыбкой и смехом, слезами и морщинкой на лбу, прищуром глаз и лёгкой гримасой... Но главное, конечно, словами. Слова должны стать средством выражения эмоций и для Эмика.
Одновременно фразы, составленные Эмиком, должны быть показателем его, так сказать, интеллектуальных и эмоциональных способностей. Можно же по речи человека судить о его развитии!
Итак, задача – создать модель целого эмоционального мира. Но что, в принципе, представляет собой этот мир? Что надо создавать?
Биокибернетикам прежде всего пришлось разработать таблицу эмоций, пока, естественно, очень неполную. В неё вошли 55 эмоций, разделённых по четырём основным типам: на чувства (например, тоска), настроения (тревога), страсти (ненависть) и аффекты (ужас).
Непременная черта страсти – длительность, аффекта – сугубая кратковременность и сила, настроения – длительность и устойчивость.
В таблице учли и то, что страх может быть и аффектом, и настроением, и, в случае душевой болезни, страстью. Любую эмоцию можно было теперь обозначить числом – по её месту в таблице, – как это делают шахматисты с клетками шахматной доски.
Каждой эмоции дали строго научное определение. Но от Эмика-то ведь ждали не научных ответов! Значит, для его программирования надо было найти эмоциональные описания возникновения каждой из эмоций и ситуаций, которые к этому возникновению приводят.
И тут на помощь пришли писатели-классики. Шекспир и Пушкин, Бальзак, Толстой и Чехов приняли самое непосредственное участие в работе над моделью. Учёные находили в их книгах описания чувств, анализировали вызвавшие их ситуации, выделяли в этих ситуациях главное... Биологи, психологи и инженеры стали одновременно ещё и литературоведами. В общем-то это была чистейшая «поверка алгеброй гармонии». Но мне почему-то кажется, что Александр Сергеевич обрадовался бы, узнав об этой работе. Кощунство? Как хотите. Но дух захватывает, когда видишь, что старик Шекспир пригодился кибернетике.
Однако времена ведь меняются. Не устарели ли описания чувств, сделанные классиками? Сколько раз, кстати, кричали что-то в этом роде литературные потрясатели основ! Писал же Игорь Северянин: «Для нас Державиным стал Пушкин». Кибернетики – люди деловитые, всё привыкшие проверять. И они решили сверить выводы, сделанные по книгам классиков, с романами последнего десятилетия. Взяли бесспорно великолепные, бесспорно более чем современные произведения Эрнеста Хемингуэя и Альберто Моравиа. И лишний раз подтвердилось – прогресс прогрессом, а чувства человеческие остались теми же. И сходные ситуации вызывают теперь те же эмоции, что и сто, и триста лет назад. Толстой и Хэмингуэй равно злободневны в седьмом десятилетии XX века.
А затем надо было перенести результаты анализа на дырчатые ленты. Это и оказалось самым сложным.
ЭМИК СЛУШАЕТ!
Из семи частей-блоков состоит модель, созданная киевскими кибернетиками. Как и у Олдоса, здесь есть отдельные блоки долговременной и кратковременной памяти, а кроме того, ещё входной блок, блок взаимодействия, блок эмоций, блок ответа и блок анализа.
Долговременная память хранит 280 слов – примерно столько же, сколько знает их двухлетний ребёнок. Не думайте, однако, что это так уж мало. В каждом языке легко выделить сравнительно небольшую группу чаще всего употребляемых слов. С 1000 слов человек чувствует себя в чужой стране уже вполне благополучно, и даже сотня слов, если они правильно выбраны, даёт возможность, что называется, не теряться. Самые подходящие из своих 280 должен выбрать и правильно соединить Эмик для ответа на очередной вопрос.
Слов, собственно, можно было бы взять и больше, но память Эмика слишком загружена ещё более ответственными сведениями – об ассоциациях, связях между словами.
Массовики домов отдыха очень любят такую игру. Они предлагают слушателям в ответ на каждое их слово бросать другое, первое пришедшее в голову. А затем демонстрируют лист бумаги, на который заранее были записаны ответы. Потому что для большинства людей к слову «фрукт» ассоциативная пара – «яблоко», к слову «обед» – «вкусный», к слову «палец» – «указательный», «жидкость» обязательно «прозрачная» и так далее. Разумеется, в этом шуточном эксперименте используются результаты вполне серьезных психологических опытов.
Человек в своей речи постоянно пользуется ассоциациями, некоторые из которых даже режут ухо, настолько трафаретными они стали. Наоборот, ясные и в то же время свежие ассоциации радуют.
Моделируя человеческую личность, нельзя упустить из виду ассоциативную память.
Ряд ассоциации, давно найденных психологами, и внесли киевляне в память Эмика.
Но каждое слово вызывает у человека не только слова, но и какие-то, пусть неясные, эмоции. Есть слова (арбуз, улыбка, озеро), вызывающие приятные ощущения, есть (смерть, операция и др.) связанные с чувством страха. Значит, надо учесть эмоциональную оценку каждого слова. Её, естественно, выражают каким-то условным числом.
Блок долговременной памяти состоит из двух частей. В одной хранятся сведения о словах и связях между ними. В другой – начальный запас входных предложений-вопросов (чтобы было с чем сравнивать новые вопросы). Составлены эти предложения из слов что содержатся в первой части памяти. Каждому из них (предложений) придана эмоциональная оценка с помощью чисел, обозначающих положение эмоций в той таблице, о которой мы говорили.
Собственно, каждое слово тоже имеет в этих предложениях эмоциональную оценку. Но общая оценка вопросов отнюдь не сумма эмоций, вызываемых отдельными его частями. И сама эмоциональная оценка одного и того же вопроса в разных условиях может быть разной.
У вас совсем непохоже спросят: «Не хотите ли поесть?» – в столовой, в ресторане, в гостях у друга или у людей, которым вы не слишком приятны.
А уж с какими разными оттенками можно спросить: «Вы считаете, что знаете предмет?» или «Вы поэт?!».
И это, конечно, тоже надо учесть. Поэтому вся вторая область памяти разбита на участки, соответствующие участкам таблицы эмоций, а отдельные предложения могут храниться в нескольких участках одновременно.
Учтена здесь даже та тонкость и сложность человеческих чувств, о которой века твердит поэзия. Вопрос может вызвать не одну определенную эмоцию, а сочетание нескольких чувств одновременно. («Люблю и ненавижу» – писал древнеримский поэт Катулл, «Мне грустно и легко» – Пушкин).
Но одних эмоций мало, чтобы дать на вопрос верный ответ. Надо ещё знать, как этот ответ сформулировать, то есть надо знать синтаксис. И в памяти Эмика есть набор конструкций, форм ответа, связанных с отдельными эмоциями. В конструкции указан порядок размещения слов, что войдут в состав ответа.
И вот представьте, что модель готова отвечать.
На входной блок поступает первый вопрос. Он тут же разлагается на части. От слов «отделяются» их эмоциональные оценки, найденные машиной, от предложения в целом – его общая эмоциональная оценка. И Эмик обращается к тому участку своей ассоциативной памяти, который предназначен для слов, соответствующих оцененной эмоции.
Но у человека эмоциональная окраска ответа отнюдь не определяется ведь только эмоциональной окраской вопроса. Она зависит от состояния человека, его настроения. Это тоже надо промоделировать. И результаты анализа вопроса отправляются на блок эмоций. Здесь происходит их взаимодействие, во-первых, с эмоциональной оценкой предыдущего ответа и, во-вторых, с фоном. Фон играет здесь примерно ту же роль, что для нас в обычной жизни погода. Осенний дождь навевает грусть, весеннее утро приводит в доброе настроение.
Тут происходит очень любопытное явление столкновения эмоций, они вытесняют друг друга или сливаются, борются, подвергаются взаимному влиянию... Так борются порою в каждом из нас, скажем, страх и любопытство, тревога и надежда. Киевские кибернетики позаботились о том, чтобы в модели эта борьба проходила по законам, известным психологии и физиологии.
Учтено и то, что эмоции могут перейти друг в друга: отвращение иногда становится злостью, злость – возмущением, возмущение – гневом, гнев вызывает ненависть.
Даже Олдосу можно было придать тот или иной «характер». То же относится к Эмику, но наш «киевский студент» обладает и подобием темперамента. Можно сделать у него сильнее те или иные эмоции, устроить так, чтобы в одном варианте Эмика чаще побеждали на «кухне чувств» бурные эмоции, а в другом – более «тихие», чтобы возмущение заняло место гнева, раздражение – место страха.
Конструкции ответа Эмик берёт из той части памяти, которая соответствует окончательной эмоциональной оценке им ответа. Но эту конструкцию надо ещё заполнить конкретными осмысленными словами. Ведь конструкция указывает, скажем, только, что на первое место надо поставить местоимение, на второе – глагол. Но какое местоимение, какой глагол? Это-то и оказывается самым сложным.
Здесь работа группы создателей Эмика впадает в общее русло основных работ киевского института кибернетики. Учёные во главе с Глушковым работают, в частности, над тем, чтобы научить машину распознавать смысл фраз.
Каждое слово, хранящееся в Эмике, получило условный вес.
И Эмик выбирает для ответа самые «тяжелые» слова, оказавшиеся в определённом участке памяти, границы которого указывает эмоциональная оценка.
Как рука перчатку, заполнят эти слова предварительно найденную для них форму. Впрочем, не обязательно сразу фраза-ответ получится удачной. Но это не страшно. Модель будет обучаться в процессе работы. Но почему будет? Разве Эмика ещё нет? На этот вопрос нельзя ответить ни да ни нет. Эмик есть, но пока, так сказать, в разобранном виде.
Созданы и отработаны шесть из семи его блоков. Идет «подгонка» их друг к другу, сборка, если можно так выразиться. Каждую часть программы «прогоняют» сквозь машину, проверяют, исправляют и дополняют. В этом году модель предполагают ввести в электронно-вычислительную машину уже в целом виде.
А пока... пока можно познакомиться со старшим братом Эмика, уже переведенным на машину. Как и полагается в сказках, он куда глупее своего младшенького. Впрочем, «глупее» не то слово. Эмик старший вообще не умеет выбирать из своей памяти слова по их смыслу. Да и слов в его распоряжении всемеро меньше – всего-навсего сорок. Но «чувствовать» умеет и старший брат. Это – единственное его назначение. В ответ на группы слов, поступающих на вход, Эмик старший выдает цепочку слов с той же эмоциональной окраской, но с учетом настроения и предыдущих ответов на вопросы.
«Ему скажут: «хороший друг»; а он отвечает: «красивый – дом – большой – жизнь – хлеб – ходить – смелый – женщина».
Вполне «человеческая» ассоциативная цепочка!
Но Эмик настоящий будет не только глубже чувствовать, но и думать. Или, если выразиться научно точнее, моделировать процесс возникновения эмоций и одновременно моделировать мышление. Он послужит и для проверки гипотезы Амосова о взаимодействии в мозгу человека эмоциональной и интеллектуальной программ. Собственно, весь Эмик будет работать на основе этой гипотезы.
* * *
Итак, еще Чапек говорил, что роботам понадобятся эмоции. Но созданные воображением этого писателя роботы не были собственно машинами в принятом сегодня смысле слова. Они были живыми существами, построенными из органических тканей. Современные фантасты работают, естественно, с «железными людьми». Как они представляют себе решение проблемы эмоций у машины? Пока на страницах газет и журналов продолжается древний спор на тему о том, может ли машина мыслить.
Давным-давно один весёлый философ задал богословам всех времен великолепный логический вопрос:
– Бог может всё. Ну, так может ли он создать такой камень, который даже он поднять не сможет?
Последний же десяток лет менее весёлые и часто очень раздраженные люди спрашивают:
– Человек может всё. Ну, так может ли он создать машину, которая будет умнее его?
А когда речь доходит до эмоций... Конечно, чувствующая машина – лакомый кусочек для фантаста.
Однако большинство писателей почему-то считают, что чувства у машин, если и появятся, то сами собой, как результат и следствие развития «машинного интеллекта», самого по себе усложнения электронного мозга.
Ленинградский писатель Геннадий Гор понял, что это представление неверно. В его повести «Странник и время» люди задают машинам чувства, создают эмоциональных роботов. Но знаете, почему им это понадобилось? Потому, что людям с эстетической точки зрения было неприятно всё время иметь дело с бездушными машинами. И создать таких чувствующих роботов удалось только благодаря открытию неведомого поля. С его помощью роботам передаются переживания людей. Роботы эти, собственно, не самостоятельные чувствующие машины, а только эмоциональные двойники людей, избавленные зато от мышления, не связанного с мышлением тех, чьими двойниками они являются.
Всё это, кстати, происходит где-то в шестидесятых годах... двадцать третьего века.
Отдадим должное фантазии талантливого писателя. Но до чего приятно, что реальность науки оказалась настолько более фантастической!
Чувствовать – нет, но моделировать чувство машина может уже сегодня. Разве Эмик не будет «сердечной машиной»?