На этот вопрос существует несколько возможных ответов. Прежде всего, индийские и арабские математики, несмотря на арабские комментарии к дедуктивной геометрии, по существу некритически отнеслись к греческому наследию. Возможно, именно поэтому они восприняли математику такой, какой она пришла к ним: геометрия, по их мнению, должна была оставаться дедуктивной, арифметика и алгебра — эмпирическими и эвристическими. Возможно и другое объяснение: и индийцы, и арабы, в особенности последние, по достоинству оценили высокие стандарты строгости в геометрии, столь разительно отличающиеся от требований, предъявляемых к арифметике и алгебре, но не сумели подвести под арифметику надлежащий логический фундамент. В пользу такого предположения говорит хотя бы то, что арабы приводили в подтверждение решений квадратных и кубических уравнений некоторые геометрические соображения.
Не исключены и другие объяснения. Так, индийцы и арабы отдавали предпочтение арифметике, алгебре и алгебраической формулировке тригонометрических соотношений. Подобное предрасположение может свидетельствовать об ином складе ума, оно может быть обусловлено и какими-то особенностями индийской и арабской культур. Обе эти цивилизации превыше всего ставили запросы практики, а для удовлетворения практических потребностей — как мы уже отмечали, говоря о развитии математики в александрийский период, — были необходимы количественные результаты, которые давали именно арифметика и алгебра. В пользу предположения о различных складах ума косвенно свидетельствует и реакция европейцев на математическое наследие, доставшееся им от индийцев и арабов. Как мы увидим в дальнейшем, европейцы были гораздо сильнее, чем арабы и индийцы, обеспокоены логическими проблемами в построении арифметики и геометрии. Безрассудная смелость индийцев и арабов вывела на передний план арифметику и алгебру (если говорить о практической полезности), поставив их почти наравне с геометрией (см., например, [9], [36], [37]).
Когда в конце средневековья и в период Возрождения европейцы — отчасти через арабов, отчасти непосредственно из сохранившихся греческих рукописей — ознакомились с существующим уровнем достижений математики, они своеобразно разрешили дилемму, возникшую в связи с разделением математики на два типа «знания». Настоящей математикой, по мнению европейцев, заведомо была только дедуктивная геометрия греков. Но в то же время они не могли и не хотели отрицать полезность и эффективность арифметики и алгебры, которые хотя и были лишены твердого логического фундамента, но уже значительно усовершенствовались по сравнению с классической древностью.
Первая проблема, с которой столкнулись европейцы, сводилась к старому вопросу о том, как следует относиться к иррациональным числам. Итальянский математик Лука Пачоли (ок. 1445-1514), немецкий монах и профессор математики в Йене Михаэль Штифель (1486(?)-1567), итальянский врач и ученый Джироламо Кардано (1501-1570) и фламандский военный инженер Симон Стевин (1548-1620) свободно использовали иррациональные числа, следуя здесь традиции индийцев и арабов, и ввели много новых типов иррациональностей. Так, Штифель оперировал с иррациональными выражениями вида
а Джироламо Кардано — с иррациональностями, содержащими кубические корни. Примером того, насколько свободно и широко европейцы использовали иррациональности, может служить выражение для числа π, полученное Франсуа Виетом (1540-1603). Рассматривая правильные многоугольники с 4, 8, 16 и более сторонами, вписанные в окружность единичного радиуса, Виет обнаружил, чтоИррациональные числа нашли широкое применение и в связи с одним из новых достижений математики эпохи Возрождения — логарифмами. Логарифмы положительных чисел были изобретены в конце XVI в. Джоном Непером {68}(1550-1617) для той самой цели, для которой они с тех пор и употребляются, — для ускорения арифметических вычислений. И хотя логарифмы большинства положительных чисел иррациональны (а предложенный Непером метод вычисления логарифмов основан на свободном обращении с иррациональными числами), все математики приветствовали полезное изобретение, избавившее их от излишнего труда.
Вычисления с иррациональностями производились без каких-либо затруднений, но кое-кого все же беспокоила проблема, можно ли считать иррациональные числа «настоящими». Так, Штифель в своем главном труде «Полная арифметика» ( Arithmetica integra,1544), посвященном арифметике и алгебре, вторя Евклиду, высказывал предположение, что величины(геометрическая теория Евклида) отличны от чисел; однако, следуя духу достижений своего времени, он выражал иррациональные числа в десятичной системе. Штифеля беспокоило, что для записи иррационального вдела в десятичной системе требуется бесконечно много знаков. С одной стороны, рассуждал он,
так как при доказательстве [свойств] геометрических фигур иррациональные числа заменяют рациональные всякий раз, когда те отказываются служить нам, и доказывают все то, что не могли бы доказать те… приходится признать, что они [иррациональные числа] являются истинными числами. К тому же нас вынуждают и результаты, проистекающие из их применения, которые нельзя не признать подлинными, достоверными и незыблемыми. С другой стороны, иные соображения заставляют нас отрицать, что иррациональные числа вообще являются числами. Такое сомнение подкрепляется тем, что если мы попытаемся записать иррациональные числа в десятичной форме… то обнаружим, что они непрестанно ускользают от нас и ни одно из них не удается постичь точно… Число же, которому в силу его природы недостает точности, не может быть названо истинным числом… Следовательно, подобно тому как не является числом бесконечность, иррациональное число также не является истинным числом, а как бы скрыто от нас в облаке бесконечности.
Далее Штифель добавляет, что настоящие числа — это либо целые числа, либо дроби, а поскольку иррациональные числа не принадлежат ни к тем, ни к другим, их нельзя считать настоящими числами. Столетие спустя Паскаль и Барроу утверждали, что иррациональные числа не более чем символы, не существующие независимо от геометрических величин, и что логика арифметических операций, производимых над иррациональными числами, должна быть обоснована с помощью теории величин Евклида, хоть эта теория и не в полной мере отвечала поставленной так задаче. {69}
Высказывались и иные утверждения: по мнению некоторых европейских математиков, иррациональные числа с полным основанием можно было считать настоящими числами. Стевин провозгласил иррациональности числами и построил ряд все более точных приближений их с помощью рациональных чисел. Джон Валлис (1616-1703) в своей «Алгебре» (1685) также признал, что иррациональные числа являются числами в полном смысле этого слова. Однако ни Стевин, ни Валлис не привели никаких логических аргументов в подтверждение своего мнения.
Более того, когда Декарт в своей «Геометрии» (1637) и Ферма в рукописи 1629 г. разработали аналитическую геометрию, ни тот, ни другой не имели ясного представления об иррациональных числах. Тем не менее оба исходили из предположения, что между всеми положительными действительными числами и точками на прямой существует взаимно-однозначное соответствие, т.е. что расстояние от любой точки на прямой до какой-то точки, принятой за начало отсчета, может быть выражено числом. Так как многие из чисел при этом оказывались бы иррациональными, Декарт и Ферма тем самым неявно допускали существование иррациональных чисел, несмотря на то что тогда оно еще никак не было логически обосновано.
Европейцам пришлось столкнуться и с проблемой отрицательных чисел. Эти числа стали известны в Европе из арабских текстов, но большинство математиков XVI-XVII вв. не считали отрицательные числа «настоящими» или утверждали, что отрицательные числа не могут быть корнями уравнений. Никола Шюке [1445(?)-1500(?)] в XV в. и Штифель в XVI в. заявляли, что отрицательные числа лишены всякого смысла. Кардано включал отрицательные величины в число корней рассматриваемых им уравнений, но полагал, что отрицательные корни — это просто символы, не имеющие реального смысла. Отрицательные корни уравнений Кардано называл фиктивными и противопоставлял их действительным, т.е. положительным, корням. Виет полностью отвергал отрицательные числа. Декарт принимал их лишь с определенными оговорками. Отрицательные корни уравнений Декарт называл ложными на том основании, что они якобы представляют числа, которые меньше, чем ничто. Однако Декарту удалось показать, как, исходя из любого уравнения, можно построить другое уравнение, корни которого больше корней исходного на любую заданную величину. Тем самым Декарт указал способ, позволяющий преобразовать уравнение с отрицательными корнями в уравнение с положительными корнями. «Фиктивные» корни при таком преобразовании переходили в действительные, и поэтому Декарт неохотно смирился с отрицательными числами, но сомнения и тревоги так и не оставили его. {70}Паскаль считал, например, вычитание числа 4 из 0 операцией, лишенной всякого смысла. В «Мыслях» Паскаля есть выразительное признание: «Я знаю людей, которые никак не могут понять, что если из нуля вычесть четыре, то получится нуль».