Известно, что Адам и Ева согрешили и разочаровали Бога. И наши писатели-фантасты считают, что интеллектуальный робот, начав с благородных намерений, в дальнейшем неизбежно совершит грехопадение. Такая двойственность просматривается в пьесе чешского драматурга Карела Чапека «Р.У.Р.» («Россумские универсальные роботы»). Предложенное Чапеком слово «робот» прижилось, им стали обозначать искусственный интеллект. В пьесе роботы — безропотные и умелые слуги и работники — в конце концов перерождаются, восстают и убивают всех людей.

Полки книжных магазинов и частных собраний ломятся от подобных антиутопий. Но никакая фантастика не способна уничтожить надежду, что нашим творениям будет ведомо то, что недоступно нам самим, и поэтому они смогут облегчить наши страдания. Мы тянемся к этим обещаниям искусственного интеллекта, повинуясь инстинкту потерявшегося ребенка. Мы просим искусственный разум придать смысл нашей жизни, помочь избежать мертвящей тишины одиночества. Поэтому неудивительно, что первым роботом, созданным в реальной действительности и заговорившим с человеческими интонациями, стал бесконечно терпеливый и снисходительный психотерапевт по имени Элиза.

В середине шестидесятых годов специалист по вычислительной технике из Массачусетского технологического инсти­тута Джозеф Вейценбаум написал уникальную программу. Она позволяла компьютеру после прочтения текста породить новый фрагмент текста, который невероятным образом напоминал некое подобие продолжения диалога. Нового робота назвали в честь Элизы Дулитл, главной героини пьесы Бернарда Шоу «Пигмалион». (В ней профессор Генри Хиггинс делает из цветочницы Элизы Дулитл, болтающей на типичном кокни38, великосветскую даму, говорящую на безупречном английском.) Попытка такого общения при помощи компьютера выглядела примитивно, а сами диалоги поразительно напоминали беседы с клиентами психотерапевтов школы Карла Роджерса39. Скажите «Элизе»: «Я не люблю ходить в школу», и она спросит: «Скажите мне, почему вы не любите ходить в школу?» Сообщите «Элизе», что в комнате темно, и она поинтересуется, действительно ли вы думаете, что в комнате темно.

Я воспользовался программой «Элиза», думая, что так лучше пойму принципы, по которым она работает. Вот протокол нашей первой беседы:

Привет, меня зовут Элиза. Чем я могу вам помочь?

Я хочу написать о вас книгу.

О?..

Да, я пишу книгу, и в ней есть глава, в которой я упоминаю о вас.

Как долго вы пишете книгу, где есть глава, в которой вы упоминаете меня?

Уже несколько месяцев.

Не уверена, что я вполне вас понимаю.

Я тоже в этом не уверен.

Вы считаете, что это нормально, что вы не вполне меня понимаете?

Думаю, что это нормальный ответ на ваши ответы.

Почему вас так занимают мои ответы?

Главным образом потому, что они совершенно бессмысленны.

Это очень интересно.

Вы так думаете?

Вы говорите не обо мне, не так ли?

Такое общение очень скоро становится невыносимым. Но, возможно, подумал я, эксперимент поставлен некорректно. «Элизу» создавали не для рефлексии и самокопания. Она хотела помочь мне решить мои проблемы и не собиралась раскрывать свои секреты. Я сделал вторую попытку, постаравшись проявить максимум эмоциональности.

Привет, меня зовут Элиза. Чем я могу вам помочь?

У меня стресс, потому что я пишу книгу.

Как давно у вас стресс из-за того, что вы пишете книгу?

Несколько месяцев.

Отлично... «У меня стресс, потому что я пишу книгу». Поясните подробнее.

Что именно?

Вас интересует этот вопрос?

Ох, отвяжись.

Расскажите мне больше...

Отвяжись, отвяжись, отвяжись.

Почему вы повторяетесь?

Отвяжись, отвяжись, отвяжись.

Прошу вас, поясните свою мысль.

Отстань, иди к черту.

Скажите, у вас есть психологические проблемы?

Вторая попытка коммуникации со старомодной программой оказалась не лучше первой. Но меня поразило, насколько я был эмоционально захвачен этим уродливым общением.

Когда Вейценбаум допустил своих студентов к общению с «Элизой», он и сам был удивлен, насколько глубоко они погружались в него. Многие из них находили подход «Элизы» приятным и полезным. В какой-то степени она действительно была идеальным собеседником: повторяла ваше мнение, а потом бесконечно спрашивала, как вы себя чувствуете и почему вы себя чувствуете именно так, а не иначе. Некоторые психотерапевты (видимо, забыв о своей выгоде) заговорили, что «Элиза» могла бы стать дешевой альтернативой дорогостоящим психоаналитическим сеансам. Какой бы утомительной и скучной ни была «Элиза», она давала людям то, чего они хотят от слушателя, — механическое подтверждение своим мыслям. «Необычайно короткий сеанс работы с простой компьютерной программой, — писал позже Вейценбаум, — может индуцировать бредовое мышление у абсолютно нормального человека».

Сегодня мы на каждом шагу наблюдаем такую бредовую индукцию. Иногда в довольно забавной форме. Фирма BMW была вынуждена отозвать партию навигаторов GPS, потому что немецкие мужчины не терпят указаний, произнесенных женским голосом. Когда армия США разрабатывала свою систему Sergeant Star (бота, беседующего с потенциальными рекрутами на сайте goarmy.com), военные компьютерщики, естественно, постарались синтезировать мужественный голос старого вояки из компьютерной игры-стрелялки «Чувство долга». Одурачивание людей и вовлечение их в эмоциональное общение с неодушевленным предметом (часто сделанным по заказу крупной корпорации или государства) — это новый, многообещающий и очень опасный рубеж. Однако первооткрыватель этого рубежа, Колумб неодушевленной эмоциональности, поднял свои паруса больше полувека назад.

* * *

Знаменитый и не слишком счастливый английский математик Алан Тьюринг, крестный отец компьютера, твердо верил, что неизбежно наступит будущее, населенное эмоциональными и общительными компьютерами. Он утверждал: «Наступит время, когда дамы будут брать на прогулку в парк свои компьютеры, а потом рассказывать друг другу: “Мой малыш сказал мне, что сегодня чудесное утро”». Тьюринг настаивал, что машину можно назвать разумной только в том случае, если человек, обменявшийся с ней письмами, не сможет отличить ее от человека. (Я знаю нескольких человек, которые едва ли выдержат такой тест, но это уже другая история.)

Этот вызов — который до сих пор называют «тестом Тьюринга» — продолжает жить в виде ежегодного конкурса на приз Лебнера (литая золотая медаль плюс сто тысяч долларов наличными). Этот приз получит любой компьютер, беседа которого окажется настолько беглой и достоверной, что его невозможно будет отличить от живого собеседника40. На этом конкурсе (учрежденном в 1990 году нью-йоркским филантропом Хью Лебнером) группа судей, сидя перед экраном монитора, вступает в краткую переписку с людьми и компьютерами. Судьи не знают, с кем именно они переписываются в данный момент. Потом голосованием решается, кто это был — человек или компьютер. Такие программы, как Clevervbot (самый гуманный компьютер 2005 и 2006 годов), содержат огромную базу данных из типичных высказываний, которые произносятся в ответ на самые разнообразные предложения. Такие фрагменты программа связывает в достаточно внятные (хотя и несколько причудливые) диалоги. Другие программы, например Chip Vivant — победитель 2012 года, не имели больших баз данных, но пытались сами синтезировать нечто напоминающее человеческие рассуждения. Иногда случалось, что людей, участвовавших в конкурсе, принимали за машины. Участница по имени Синтия Клей — специалист по творчеству Шекспира — тремя судьями была названа компьютером, когда завела разговор о бардах. Судьям показалось, что она «слишком много знает». (Брайан Крисчен писал в книге The Most Human Human, что Клей восприняла эту ошибку как комплимент.)