2. Ответ роботов (Иель). “Предположим, что мы написали бы программу, отличную от программы Шенка. Представьте, что мы вставили бы компьютер внутрь робота. Этот компьютер не только принимал бы формальные символы в качестве входных данных и выдавал бы формальные символы в качестве выходных данных — он управлял бы роботом таким образом, что робот делал бы нечто, напоминающее восприятие, ходьбу, разнообразные движения, еду, питье — все, что вы хотите. В робота, например, может быть встроена телекамера, позволяющая ему видеть; у него могут быть руки и ноги, позволяющие ему “действовать”, и все это будет контролироваться его компьютерным “мозгом”. Подобный робот, в отличие от компьютера Шенка, будет способен на действительное понимание и другие ментальные состояния”.
Первое, что бросается в глаза в этом ответе, это то, что он молча соглашается с тем, что понимание — это нечто большее, чем манипуляция формальными символами, поскольку этот ответ добавляет множество каузальных отношений с миром (Fodor, 1980). Наш ответ на это заключается в том, что добавление “моторных” или “сенсорных” возможностей не добавляет ничего к когнитивным или интенциональным возможностям первоначальной программы Шенка. Чтобы в этом убедиться, достаточно заметить, что тот же мысленный эксперимент приложим и в случае с роботом. Представьте, что вместо компьютера, помещенного в робота, вы поместите меня в комнату и снова, как и в первоначальном китайском эксперименте, дадите мне китайские символы и инструкции по-английски для соотношения одних китайских символов с другими китайскими символами и выдачи “на-гора” третьих китайских символов. Представьте, что, хотя мне об этом ничего не известно, некоторые китайские символы поступают ко мне из телевизионной камеры, прикрепленной к роботу, а некоторые китайские символы, произведенные мной, приводят в действие моторы внутри робота, двигающие его руками и ногами. Важно подчеркнуть, что я лишь манипулирую формальными символами. Я получаю “информацию” от “перцептуального” аппарата робота и даю инструкции его “моторному” аппарату, ничего об этом не подозревая. Я являюсь “гомункулюсом” этого робота, но, в отличие от традиционного гомункулюса, я не знаю, что происходит. Я не понимаю ничего, кроме правил манипуляции символами. Я утверждаю, что в этом случае робот лишен какой бы то ни было интенциональности; он просто передвигается в результате действия его электрических соединений и программы. Кроме того, представляя в данном случае эту программу, я также лишен относящихся к делу интенциональных состояний. Я только следую формальным инструкциям по манипуляции формальными символами.
3. Ответ имитации мозга (Беркли и Массачуссеттский Технологический институт). “Предположим, что мы разработали программу, которая не представляет информацию о мире, подобную информации в текстах Шенка. Вместо этого программа в точности симулирует процесс нервной деятельности в мозгу китайца, когда тот понимает рассказы по-китайски и отвечает на вопросы о них. Машина принимает в качестве входных данных рассказы и вопросы о них, симулирует формальную структуру мозгов китайца, понимающего эти рассказы, и производит в качестве выходных данных китайские символы. Мы можем даже вообразить, что вместо одной-единственной программы в машине работают множество параллельных программ, подобно тому, как предположительно работает человеческий мозг в процессе понимания человеческого языка. В таком случае нам придется признать, что машина понимает рассказы. Если мы откажемся это сказать, не придется ли нам отказать в понимании и самому китайцу? На уровне синапсов, какая разница между программой нашего компьютера и программой мозга китайца?”
Прежде, чем ответить на это возражение, я замечу, что это очень странное возражение для любого сторонника ИИ (или функционализма и т.п.). Мне казалось, что идея сильной версии ИИ состоит именно в том, что для понимания работы разума не обязательно понимать, как работает мозг. Я думал, что основная гипотеза сторонников этой версии состоит в том, что существует некий уровень мыслительной деятельности, на котором производятся манипуляции с формальными элементами. Именно это является основой разума и может быть реализовано в различных мозговых процессах, так же, как любая компьютерная программа может работать на различной аппаратуре. Сильная версия ИИ считает, что программа для компьютера — то же, что разум для мозга. Таким образом мы можем понять разум, не вдаваясь в нейрофизиологию. Если бы для занятий ИИ нам было бы необходимо понять, как работает мозг, то нам вообще не понадобилась бы такая наука, как ИИ. И все же такой близкий подход к работе мозга еще не достаточен, чтобы произвести понимание. Чтобы в этом убедиться, представьте себе, что вместо человека, работающего с формальными символами, в комнате сидит человек, оперирующий системой водопроводных труб, соединенных клапанами. Когда он получает китайские символы, он сверяется с написанной по-английски программой, и начинает открывать и закрывать определенные клапаны. Каждое соединение соответствует синапсу в мозгу китайца, и вся система настроена так, что после всех манипуляций с клапанами нужные китайские символы появляются с другого конца труб.
Где в этой системе понимание? Она принимает в качестве входных данных китайские символы, симулирует формальную структуру китайских синапсов и выдает другой набор китайских символов. Но человек явно не понимает китайского, так же, как не понимают его водопроводные трубы; если мы примем гипотезу, кажущуюся мне абсурдной, что каким-то образом человек в сочетании с трубами начинает понимать, вспомните, что в принципе человек может проделывать все эти манипуляции с трубами в своем воображении. Проблема с симулятором мозга заключается в том, что он подражает не тому, чему следует. Пока он имитирует лишь формальную структуру синапсов и нейронного возбуждения, он не отражает того, что действительно важно в мозгу — а именно, его каузальные свойства и его способность порождать интенциональные состояния. То, что формальные свойства недостаточны для порождения каузальных свойств, мы показали на примере водопроводных труб. Мы можем вывести все формальные свойства из относящихся к делу нейробиологических каузальных свойств.
4. Комбинированный ответ (Беркли и Стэнфорд). “Хотя сами по себе три предыдущих ответа не являются достаточно убедительным опровержением контрпримера китайской комнаты, взятые в совокупности, они весьма убедительны и решают дело. Представьте себе человекообразного робота с компьютером в виде мозга, расположенном в его черепной коробке, представьте, что программа этого компьютера в точности имитирует синапсы мозга, представьте, что поведение этого робота неотличимо от поведения человека. Теперь представьте все это как единую систему, а не как компьютер с входными и выходными данными. Безусловно, в таком случае вы должны будете согласиться с тем, что система имеет интенциональность”.
Я совершенно согласен с тем, что в таком случае гипотеза о том, что робот обладает интенциональностью, кажется вполне рациональной — если мы больше ничего не знаем об этой системе. В действительности другие элементы этой комбинации, кроме внешнего вида и поведения, к делу не относятся. Если бы мы могли построить робота, чье поведение было бы в течение долгого времени неотличимо от человеческого поведения, мы могли бы приписать ему интенциональность. Нам вовсе не нужно было бы знать заранее, что его компьютерный мозг представляет собой формальную аналогию с человеческим мозгом.
Но я не вижу, как это может помочь утверждениям сторонников сильной версии ИИ. И вот почему: согласно этой версии формальная программа с правильными входными и выходными данными является достаточным условием и составной частью интенциональности. Как писал Ньюэлл (Newell, 1979), основой ментального является деятельность системы физических символов. Но наше признание интенциональности робота в этом примере не имеет ничего общего с формальными программами. Оно основано на предположении, что если робот выглядит и действует достаточно похоже на нас, то мы должны предположить, пока не доказано обратное, что у этого робота есть ментальные состояния, подобные нашим; что эти состояния обуславливают его поведение и им выражаются; что робот имеет некий внутренний механизм, способный производить эти состояния. Если бы мы знали, как иначе можно объяснить его поведение, мы бы не стали приписывать ему интенциональность, в особенности если бы мы знали о наличии у него формальной программы. И именно в этом — смысл моего предыдущего ответа на возражение II.