– Еще одна мудрая заповедь от «трехзаконных» роботов, – проговорила Фреда. – Заботься о своей безопасности, ничего не предпринимай и не рискуй.

– Лично я воспринимаю тот факт, что роботы учат людей не рисковать попусту, как веский аргумент в их пользу, – вступил в разговор Дональд. – Но даже в Первом Законе содержится императив, направленный против бездействия. Робот не может пассивно стоять в стороне, когда человеку грозит опасность. Я должен действовать, чтобы помешать причинению вреда человеку.

Крэш с улыбкой посмотрел на робота.

– Ты хочешь сказать, что робот, окажись он перед подобным выбором, предпочел бы сбросить на Инферно комету? Лично ты поступил бы так?

Воздев руки и отчаянно тряся головой из стороны в сторону, Дональд быстро заговорил:

– Ни в коем случае, Правитель! Я в буквальном смысле не способен принять такое решение. Я просто физически не смогу сделать этого, а подобная попытка оказалась бы для меня самоубийственной. То же относится не только ко мне, но и ко всем роботам с Тремя Законами.

– Почему?

– Первый Закон запрещает нам причинять человеку вред и бездействовать, когда ему грозит опасность. – Казалось, что слова начинают даваться Дональду все с большим трудом. Было видно, что ему трудно даже говорить об этом, пусть и чисто гипотетически. – В данном случае и действие, и бездействие могут как стать причиной угрозы для людей, так и устранить ее. Попытка разрешить такую сложную дилемму, от которой зависит жизнь столь большого числа людей, приведет к конфликту между Первым Законом и выз… вызовет неустранимые сбоибоибои в любббом позитронном мозгу-у-у-у…

Глаза Дональда потускнели, и руки безвольно упали вдоль тела.

– Все в порядке, Дональд, – ободряюще сказал Крэш, постаравшись, чтобы его голос звучал как можно тверже и убедительнее. Он пересек гостиную и, подойдя к роботу, положил руку на его покатое плечо. – Успокойся. Тебе не придется принимать такое решение. Я приказываю тебе не думать об этом.

Бывали случаи, когда только прямой приказ со стороны хозяина мог вывести робота из подобного состояния.

На мгновение глаза робота почти совсем погасли, но тут же снова вспыхнули и засветились своей обычной яркостью. В течение нескольких секунд они смотрели в никуда, но затем переместили свой взгляд на Крэша и сфокусировались на нем.

– Спасибо… Спасибо, сэр. С моей стороны было неумно рассматривать данную проблему слишком пристально, пусть даже по вашему приказу.

Признавая свою вину, Крэш рассеянно кивнул. Он сам спросил робота, как бы тот поступил в подобной ситуации, а для Дональда такая просьба была равнозначна, приказу. Чувствительность и щепетильность роботов требовали проявлять в общении с ними огромную деликатность и осторожность. Иногда это безумно утомляло Крэша – до такой степени, что он был почти готов признать правоту поселенцев, поставивших роботов вне закона. Не исключено, что жизнь без них в какой-то степени была бы легче.

Взять, к примеру, теперешнюю ситуацию. Но если на роботов нельзя положиться в этом деле, то… Крэш снова повернулся к Дональду:

– Дональд, я приказываю тебе отключить всю свою аудиоаппаратуру. Стой в этом положении до тех пор, пока я или моя жена не махнем тебе рукой. Ты понял меня?

– Да, конечно, сэр. Отключаю аудиорецепторы.

– Хорошо, – сказал Правитель. Снова дурацкие предосторожности, но ничего не поделаешь. Теперь, по крайней мере, Дональд не сможет ни слушать, ни подслушивать. Теперь они с женой могут говорить, не опасаясь сказать в присутствии робота что-то неподходящее и снова спровоцировать в его мозгу кризис чертова Первого Закона.

Крэш повернулся к жене.

– Что там со Всепланетным контрольным центром роботехники? – спросил он. – Прежде чем принять какое-то решение, я хотел проконсультироваться с ним и со Всепланетным контрольным вычислительным центром.

– А что с ними такое? – недоуменно спросила «Фреда.

Два эти контрольных центра являлись сердцем всей деятельности по преобразованию климата. Перед тем как запустить какой-нибудь новый проект в этой сфере, эксперты этих центров тщательно просчитывали его и подвергали всестороннему анализу.

Поначалу планировалось построить единый контрольный центр, и существовало два проекта, из которых предстояло выбирать. Один предполагал создание вычислительного центра, какие существовали у поселенцев, на базе мощного, но не наделенного разумом компьютера. Второй проект предусматривал создание центра в духе колонистов – на базе гигантского позитронного мозга, подобного тому, которым оснащаются роботы, только в тысячи раз сильнее, и также подчиняющегося Трем Законам. По сути это должен был быть мозг гигантского робота, разве что без тела.

В итоге возникла практически неразрешимая дилемма: вверить судьбу планеты либо неразумной машине, либо мозгу робота, который, несомненно, будет избегать любых рискованных решений. Было бы вполне логичным ожидать, что мозг робота ни за что не пропустит важнейший для всей планеты проект, если его осуществление будет угрожать хотя бы одной человеческой жизни. Эксперты в области роботехники обещали, что ничего подобного не случится, но они не раз ошибались и раньше.

Правитель Грег погиб раньше, чем успел остановиться на каком-то одном из двух проектов, и одним из первых актов Альвара Крэша на посту правителя явился указ о строительстве их обоих. Оба центра должны работать параллельно и согласованно друг с другом, а если бы по тому или иному вопросу они не могли прийти к консенсусу, в качестве третейского судьи привлекался человек, который и принимал окончательное решение. Как показала практика, два эти центра приходили к взаимному согласию гораздо чаще, чем ожидалось первоначально. До сих пор людям приходилось вмешиваться в их работу лишь с полдюжины раз, да и то по довольно незначительным вопросам.

Огромная планетарная сеть всевозможных зондов, датчиков, мобильных подразделений, полевых исследователей – как людей, так и роботов – обеспечивала оба центра непрерывным потоком информации, а из них, в свою очередь, шел обратный поток инструкций и команд – людям, роботам и автоматическим приборам, разбросанным по всей планете.

Два взаимосвязанных контрольных центра были единственными учреждениями на Инферно, способными управиться с такими гигантскими встречными потоками информации и указаний. Было совершенно очевидно, что план использовать комету для создания Полярного моря необходимо обязательно согласовать с двумя этими учреждениями, но Крэш не хотел рисковать рассудком позитронного мозга.

– Ты видела, что произошло с Дональдом, – обратился он к жене. – Как ты полагаешь, я не спалю мозг контрольного центра, если задам ему вопросы, на которые хочу получить ответы?

Фреда ободряюще улыбнулась.

– Контрольный центр, не способный рассматривать возможные опасности для планеты без угрозы для самого себя, лишен всякого смысла. Нам пришлось немало потрудиться, но все же мы установили особые… предохранители, что ли, которые защищают его от серьезных конфликтов, вызываемых Первым Законом.

– Хорошо. Хорошо… – немного рассеянно ответил Крэш. – Хотя бы одной заботой меньше. Хотя бы здесь не о чем тревожиться.

– Ты в этом уверен? – спросила Фреда. – А вот я сомневаюсь. Начала сомневаться, когда Лентралл спросил меня относительно имени Дональда и какое отношение оно имеет к Шекспиру.

– В чем ты начала сомневаться?

– Я была совершенно уверена, что персонажа Шекспира звали именно так. Я не испытывала никаких сомнений и даже не потрудилась перепроверить. Я была уверена в своей правоте и ошиблась.

– Мы все ошибаемся, – парировал Крэш.

– Да, бесспорно, – нетерпеливо отозвалась Фреда, – но дело в другом. То, о чем я упомянула, это мелкая ошибка, но она взялась из базы данных, которая считалась совершенно надежной. Кто знает, как давно в нее закралась эта ошибка и сколько в ней других? Сколько еще может быть вещей, в правильности которых мы совершенно уверены, а на самом деле ошибаемся?