Макферсон посмотрел на длинный ряд историй болезни, на длинный ряд незнакомых фамилий, среди которых «БЕНСОН Г. Ф., 710» полностью терялась. В определенном смысле, подумал он, Бенсон прав — он действительно живая бомба с часовым механизмом. Человек, подвергшийся операции, которая обеспечила контроль над деятельностью его мозга, неизбежно должен вызвать предубеждение у широкой публики. «Контроль над сердцем» при помощи водителя ритма сердца был сочтен изумительным изобретением, «контроль над почками» с помощью лекарственных препаратов вызвал только восторги, но контроль над деятельностью мозга — это нечто зловещее, залог катастрофы, пусть даже в принципе он и вполне аналогичен контролю над деятельностью других органов человеческого тела. Даже методика почти та же: атомная батарейка, которой они пользовались, была разработана первоначально для стимулирования работы сердца.
Но предубеждение существует. А Бенсон считает себя тикающей часовой бомбой. Макферсон вздохнул, снова достал историю болезни Бенсона и открыл ее на странице, предназначенной для предписаний врачей. Он прочел послеоперационные предписания Эллиса и Морриса и добавил:
После интерфейсинга завтра с утра начинайте давать торазин.
Перечитав свою пометку, он решил, что сестры не поймут слова «интерфейсинг», зачеркнул его и приписал:
Завтра после двенадцати начинайте давать торазин.
Входя в лифт, Макферсон подумал, что у него на душе будет гораздо спокойнее, когда Бенсон начнет получать торазин. Быть может, нельзя разрядить бомбу с часовым механизмом, но бросить ее в ведро с холодной водой, безусловно, можно.
7
Поздно вечером в «Телекомпе» Герхард озабоченно смотрел на приборную панель компьютера. Он впечатал новые инструкции, потом подошел к печатающему устройству на выходе компьютера и начал просматривать толстую стопку листков с зелеными полосками в поисках ошибки в программировании, которая, как он знал, обязательно должна была содержаться в них.
Сам компьютер никогда не ошибался. Герхард работал с компьютерами вот уже десять лет, с разными компьютерами, в разных учреждениях, и ни разу ни один из них не допустил ошибки. Конечно, ошибки случались, и часто, но всегда по вине программиста, а не машины. Порой было трудно примириться с подобной непогрешимостью, хотя бы потому, что она противоречила привычному взгляду на мир, где машины постоянно ошибались: пробки перегорали, телевизоры ломались, электрические плиты перегревались, автомобили не заводились. Современный человек привык к этому и подсознательно ожидал от машин их законной доли ошибок.
Но компьютеры были совсем другими, и, работая с ними, приходилось поступаться самолюбием. Они никогда не ошибались — и все тут. Даже когда ошибку в программировании искали неделями, даже когда десятки разных людей десятки раз проверяли программу, даже когда все сотрудники приходили к выводу, что электронный мозг наконец дал промах, тем не менее в конце концов выяснялось, что напутал все-таки человек. И так было всегда.
Вошел Ричардс, сбросил спортивную куртку и налил себе кофе.
— Как дела?
Герхард покачал головой.
— У меня неприятности с «Джорджем».
— Опять? Черт! — Ричардс посмотрел на приборную панель. — А как «Марта»?
— С «Мартой» все в порядке. По-моему, дело в «Джордже».
— «Джордж» — это который?
— «Святой Джордж», — сказал Герхард. — Сукин сын.
Ричардс допил кофе и сел у приборной панели.
— Можно я попробую?
— Конечно.
Ричардс принялся нажимать кнопки, настраивая машину на программу «Святого Джорджа». Потом на «Марту». Потом настроил их на взаимодействие.
Эти программы не были собственным созданием Герхарда и Ричардса, а представляли собой модификацию нескольких программ, разработанных в других университетах. Их всех объединяла идея создать программу, которая заставила бы компьютер действовать эмоционально. Таким программам было только логично давать человеческие имена. До «Джорджа» и «Марты» была «Элиза» в Бостоне и «Олдос» в Англии.
«Джордж» и «Марта» по сути были единой программой с небольшими различиями. Первоначально «Джордж» был запрограммирован на нейтральное отношение ко всем стимулам. Затем была создана «Марта». «Марте» была свойственна агрессивность, очень многое ей не нравилось. И наконец был создан еще один «Джордж», любящий «Джордж», получивший прозвище «Святого Джорджа».
Каждой программе было придано три эмоциональных состояния: любовь, страх и гнев. Каждая могла совершать три действия: искать контакты, избегать их и нападать. Все это, конечно, было весьма абстрактно и воплощено в числа. Например, первый «Джордж» был нейтрален по отношению к большинству чисел, но ему не нравилось число 751. Так он был запрограммирован. Эту неприязнь он переносил на все сходные числа — 743, 772 и т. п., предпочитая им такие числа, как 404, 133, 918. Если вы вводили одно из этих чисел, «Джордж» отвечал числами, означающими любовь и поиски контакта. Если нажимали число 707, «Джордж» начинал избегать контакта, а получив 750, устремлялся в нападение, о чем свидетельствовали числа, которые он печатал.
Герхард и Ричардс довольно долго всячески играли с этими программами, а затем внесли в них некоторые изменения, в результате чего компьютер заговорил. На смену числам пришли предложения. Это оказалось не только забавным, но и результативным. Взаимодействие двух программ получило название «рождественской игры», так как в основном она состояла из преподношения и принятия подарков — предметов, которые, как и числа, обладали заданным эмоциональным воздействием или же обретали его в результате опыта.
Нормальный «Джордж», взаимодействуя с «Мартой», в конце концов начинал ей нравиться, и ее злобность стушевывалась.
Но «Святой Джордж» воздействовал на нее совсем по-другому. Его уступчивость только провоцировала ее. По крайней мере так было до сих пор.
Ричардс не спускал глаз с экрана, на котором шел диалог:
ЗДРАВСТВУЙ, Я СВЯТОЙ ДЖОРДЖ.
ЗДРАВСТВУЙ.
КАК ТЕБЯ ЗОВУТ?
МАРТА.
ТЫ МАЛО ГОВОРИШЬ, МАРТА.
ДА.
НО ТЫ МНЕ НРАВИШЬСЯ.
А ТЫ МНЕ НЕ НРАВИШЬСЯ.
Я ПОНИМАЮ. ЧЕМ Я МОГУ ПОМОЧЬ?
— Он не последовательно печатает периоды, — заметил Ричардс. — Когда это началось?
— Это еще что, — сказал Герхард. — Вот погоди.
ПОМОЧЬ?
ДА, Я ХОТЕЛ БЫ ТЕБЕ ПОМОЧЬ.
ВОЗЬМИ КОШКУ.
Ричард поморщился. «Джордж» и «Марта» были запрограммированы на неприязнь к кошкам. Давая кошку «Джорджу», «Марта» выражала крайнюю враждебность.
СПАСИБО.
ВОЗЬМИ ЕЩЕ КОШКУ.
СПАСИБО, ТЫ ОЧЕНЬ ЛЮБЕЗНА.
ВОЗЬМИ ЕЩЕ КОШКУ.
НЕТ, СПАСИБО.
ТЫ НЕ ЛЮБИШЬ КОШЕК?
НЕТ, НО МНЕ ДОСТАТОЧНО КОШЕК.
ВОЗЬМИ ГОРИЛЛУ.
— Да, действительно, — сказал Ричардс. — А как в прошлые разы?
— То же самое, — сказал Герхард.
— Так же плохо?
— Абсолютно то же.
Они давно привыкли к мысли, что конечный результат взаимодействия компьютеров непредсказуем. Общую форму взаимодействия предугадать было можно, однако конкретные результаты прогнозированию не поддавались. Положение было примерно таким же, как и с компьютером, играющим в шашки: вероятнее всего, он должен выиграть, но всякий раз это будет по-разному, в зависимости от ходов противника.
МНЕ НЕ НУЖНА ГОРИЛЛА.
РАЗВЕ ТЕБЕ НЕ НРАВЯТСЯ ГОРИЛЛЫ?
НЕТ, СПАСИБО.
ТЫ СЛИШКОМ ВЕЖЛИВ.
ИЗВИНИ, ЕСЛИ Я ТЕБЯ ЧЕМ-НИБУДЬ ОБИДЕЛ.
ТЫ СЛИШКОМ МНОГО ГОВОРИШЬ.
ИЗВИНИ.
ВОЗЬМИ БАКЛАЖАН.
Ричардс следил за диалогом с интересом. Для «Святого Джорджа» слово «баклажан» по программе не имело никакого эмоционального смысла. Но он не любил огурцы и бананы.
НЕТ, СПАСИБО.
ТЕБЕ НЕ НРАВЯТСЯ БАКЛАЖАНЫ?
НЕ ОСОБЕННО.
ВОЗЬМИ ЕЩЕ БАКЛАЖАН.
НЕТ, СПАСИБО.
Я ХОЧУ, ЧТОБЫ ТЫ ВЗЯЛ ЕГО.
НЕТ, СПАСИБО.
НЕТ, ВОЗЬМИ ЕГО.
НЕТ, СПАСИБО.
Я ТРЕБУЮ.
НЕТ, СПАСИБО.