Так вот, программу, понимающую некий рассказ, может «исполнить» и человек. При этом совершенно неважно, на каком языке будет этот рассказ, хоть на китайском, как и допускает Сёрл. Лишь бы этот человек знал — и это знание дает имеющаяся у него или заученная им программа, — какие именно символы выдавать в ответ на поступающие вопросы, в которых его интересуют опять же только символы, т. е. формальная сторона. Заучивший такую программу человек будет полным аналогом компьютера, эмулирующего понимание рассказа. Со стороны — наблюдателю, который находится вне Китайской комнаты, где сидит наш испытуемый, — будет казаться, что тот понимает рассказ. Но в действительности он не будет иметь никакого представления, о чем же идет речь в этом самом рассказе.

Отсюда следует, говорит Сёрл, что компьютер, выполняющий программу по эмуляции человеческого интеллекта, не может рассматриваться как аналог этого интеллекта, так как эта эмуляция происходит без какого бы то ни было реального понимания, характерного для нашего интеллекта. А это, в свою очередь, означает, что человеческий интеллект не есть программа, выполняемая на нейронном компьютере мозга. Тем самым, по мнению Сёрла, он опровергает концепцию «сильного искусственного интеллекта» (ИИ), согласно которой наличие сознания эквивалентно выполнению программы или необходимо связано с ним. Но все, на мой взгляд, могло бы повернуться иначе, если бы он не сделал одну ремарку — вначале относительно конкретной программы понимания рассказов, а затем тоже обобщенную на все случаи, — а именно что, отвергая «сильный ИИ», он является сторонником так называемого «слабого ИИ», т. е. считает, что действия человеческого интеллекта могут[113]успешно симулироваться на компьютере. В самом деле, почему бы и нет, рассуждает Сёрл. На компьютере можно смоделировать все, в том числе и работу интеллекта. Но моделирование человеческого интеллекта так же мало может породить в компьютере понимание, как моделирование грозы может вызвать дождь в этом самом компьютере.

Допущение возможности «слабого ИИ» кажется безобидным, пока мы не осознаем, что Сёрл, выходит, готов допустить создание таких, к примеру, программ, которые будут полностью эмулировать человеком понимание хотя бы того же китайского языка. И в позднейших вариантах изложения своего аргумента Сёрл говорит уже именно о глобальных программах и о том, что их выполнение на компьютере не дает с необходимостью эффекта реального понимания. С одной стороны, это логично: ведь его интересует не частный, а общий тезис о несходстве нашего осознанного понимания и искусственного интеллекта. Но проблема в том, что при таком обобщении Аргумент китайской комнаты становится уязвим для критики.

В самом деле, еще раз представим человека, запертого в комнате, заваленной горами китайских иероглифов, и снабженного программой, которая позволяет, по предположению, полностью эмулировать его знание китайского языка. Что же это за программа? Какого рода программа может подсказывать ему выбор иероглифов, создающий полную иллюзию осмысленного речевого поведения, т. е. позволяющий ему проходить знаменитый тест Тьюринга? Программа — это алгоритм, ставящий в соответствие данные на входе данным на выходе. Но какой алгоритм может поставить в соответствие данным на входе, означающим, к примеру — о чем не знает испытуемый — такой вопрос: «Сколько сейчас времени?», такие данные на выходе, которые соответствовали бы критериям разумного речевого поведения, т. е. не позволили бы мне сразу сказать (если допустить, что мне известно, что в комнате есть часы), что это ответ машины? Никакая программа не может заранее прописать, в какое время я задам этот вопрос — если это не программа, кодирующая божественное провидение (и даже она не выручила бы, так как получается, что человек, задающий подобный вопрос, не мог заранее ознакомиться с ней, что нелепо, но необходимо допустить, так как в противном случае ничто не мешало бы ему задать свой вопрос в другое время[114]). Или представим, что человек, задающий вопросы, заранее принес в ту комнату какой‑то предмет — к примеру, банку кока — колы — и поставил его на стол (это не противоречит условиям мысленного эксперимента Сёрла). И теперь он спрашивает: «Что вы видите на столе?» Невозможно вообразить, как человек в Китайской комнате смог бы ответить на этот вопрос при заданных Сёрлом условиях. Таким образом, чтобы осмысленно ответить на подобные вопросы, наш герой должен получить инструкцию: такие‑то иероглифы означают то‑то и то‑то (например, «взгляни на часы», «смотри на стол», «опиши то, что видишь»), т. е. получить семантическую информацию[115].

Но, получая ее, он начинает понимать китайский язык! Можно, правда, сказать, что Сёрл предвидел это возражение и ответил на него уже в разбираемой нами статье 1980 г. Дело в том, что мы должны помнить, что программы, о которых идет речь, в принципе написаны для машин, а не для человека: он лишь, так сказать, случайный гость в Китайской комнате. Поэтому очевидно, что для ответа на вопрос, подобный заданному выше — о том, «что вы видите на столе» и т. п., — программа должна содержать набор команд для какого‑то механизма, снабженного телекамерой, и, исполняя эти команды, такой механизм повернет камеру в нужное место. Так что человек, на время инсталлирующий в себя данную программу, должен просто отдавать команды такому механизму при появлении тех или иных иероглифов, не имея никакого представления ни о смысле этих закодированных команд, ни о смысле символов на выходе этого механизма, трактуемых извне как ответ на заданный вопрос.

Одним словом, Сёрл уверен, что превращение Китайской комнаты в Китайского робота ничего не меняет[116]: человек, исполняющий программу понимания китайского языка, все равно не понимает по — китайски. Однако с этим нельзя согласиться. Вдумаемся еще раз в условия нового мысленного эксперимента. Они не совпадают с условиями Китайской комнаты. В первом случае предполагалось, что человек полностью знаком с программой понимания китайского языка. Во втором — он не знает одного существенного компонента программы, а именно он не знает, почему символы, уходящие в устройство с телекамерой (при этом неважно, знает ли он, что там именно телекамера, он просто отсылает куда‑то символы), порождают какие‑то другие символы на выходе, которые он, в свою очередь, передает в качестве ответа на вопрос о том, что он видит вокруг себя.

Еще раз подчеркну: в самой программе эта связь должна быть прописана, в самой программе должно быть прописано, что такие‑то данные телекамеры надо кодировать такими‑то символами и т. п. Иными словами, в самой программе должен быть квазисемантический блок. Поскольку он неизвестен человеку, исполняющему программу, он, естественно, не понимает задаваемые ему вопросы. Но можно предположить, что их понимает весь робот, одним из механизмов которого оказывается человек внутри его. Кстати, одно из самых популярных в профессиональной философской среде возражений на Аргумент китайской комнаты состоит именно в том, что, хотя человек в ней не понимает китайского[117], его может понимать вся комната. Обычно оно вызывает смех в студенческой аудитории. И справедливо: если взять Китайскую комнату в ее, скажем так, изначальной обстановке, то это предположение просто нелепо. Изначальная программа китайской комнаты не имела квазисемантического блока. Человек в этой комнате знал всю программу — крайне ограниченную, напомним, по своим эмулятивным возможностям[118], и рассмотрение комнаты в целом ничего не меняет. Но в механизированной китайской комнате — в китайском роботе — ситуация изменилась, в его программе есть «семантическая» часть, и она неизвестна человеку. Если бы он имел к ней доступ, то, исполняя эту программу, он стал бы понимать китайский язык, что, собственно, и требовалось доказать[119]. Впрочем, это не означает, что сам робот реально понимает китайский. Пока это просто гипотеза, которая не может быть опровергнута средствами Китайской комнаты Сёрла.