Все компьютеры, включая «Элизу», не прошли тест Тьюринга. Бесконечное разнообразие нюансов человеческого общения пока не поддается программированию. Проще говоря, компьютеры еще не обладают чувствами, необходимыми, чтобы подняться на эмоциональный уровень человеческого общения.
Мы очень медленно ползем к этой цели. Существует огромная трудность на пути обучения компьютеров даже поверхностному сопереживанию. Наша эмоциональная экспрессия бесконечно сложна и включает в себя огромное количество выражений и эмоций: усталое выражение лица неудачно запрограммированный компьютер может прочитать как выражение «несчастья».
То, что воображал себе Тьюринг (интеллигентный компьютер, способный играть в человеческие игры хотя бы приблизительно как реальный человек), сейчас называют «аффективной технологией». Эти технологии активно разрабатываются. «Аффективный» — любопытное словечко, но в данном случае оно подходит как нельзя лучше. Слово напоминает нам об аффектации41, о настроении и чувствах, но надо помнить, что происходит это слово от латинского afficere — «влиять» или (звучит зловеще) «навести болезнь».
Совсем недавно группа ученых Массачусетского технологического института приблизилась к Святому Граалю42 afficere — перевела целый спектр человеческих эмоций в двоичный компьютерный код.
* * *
Помимо роботов, способных поддерживать компьютерный чат, мы располагаем программами, умеющими прослеживать положение 24 точек лица, что позволяет идентифицировать эмоциональное состояние человека и порождать соответствующие реакции машины. Кроме того, существуют Q-сенсоры — браслеты, измеряющие уровень «эмоционального возбуждения» по температуре и электропроводности кожи.
Главная проблема, однако, остается нерешенной. Говорим ли мы об «аффективных компьютерах» или о «компьютерном сопереживании», на базовом уровне мы все равно обсуждаем технологии, распознавание образов и более сложную сферу глубинного анализа данных. Тем не менее цель — «гуманизация» интерфейса. А ее невозможно достичь, не решив грандиозную задачу пропуска массы живого опыта через мелкую программную сеть.
Многие умы, работающие на переднем крае этой отрасли, собрались в Массачусетском технологическом институте, на факультете Media Lab, где они (по их собственным словам) «изобретают будущее». Я познакомился с одним из сотрудников Media Lab Картиком Динакаром, который по совместительству работает в «Майкрософт», помогая фирме усовершенствовать поисковую систему Bing. («Каждый раз, когда я набираю имя Хиллари Клинтон, — говорит он, — ответ вы получаете благодаря мне».)
Динакар — симпатичный и улыбчивый молодой человек двадцати восьми лет с густой копной черных волос. Как и Аманда Тодд, он не понаслышке знаком с травлей в детском коллективе. Его не любили, когда он был подростком, так как он был ботаником и считался помешанным на компьютерах. От травли он прятался в сети. «Я писал посты в блог и... да, знаете, мне становилось легче. Я думаю, что именно поэтому люди продолжают этим заниматься, поэтому они пишут в Twitter и подобные места. Думаю, что в сети люди ищут сочувствия».
Чувство непохожести у Картика усиливается его синестезиями. Синестезия — это способность органов чувств наряду со специфическими для них ощущениями воспринимать и ощущения, соответствующие другим органам чувств43. В какой-то степени мы все подвержены этому явлению. Мозг младенца в наибольшей степени склонен к синестезии. Дети в возрасте двух-трех месяцев обладают способностью к смешанным ощущениям. Однако в редких случаях такое состояние сохраняется и в более старшем возрасте. Если вы назовете Динакару число семь, он увидит определенный цвет. Пятница всегда окрашена в темно-зеленые тона. Воскресенье неизменно связано с черным цветом.
Естественно, эта особенность делает Динакара идеальным членом команды Media Lab. Так называемый компьютерный ботаник с мозгом, в котором образовались и сохранились нетипичные связи, — это как раз то, что нужно бастиону междисциплинарного научного подхода.
Когда осенью 2010 года Картик начал работать над докторской диссертацией, у него, как он вспоминает, «едва не лопнули мозги». Докторантам предложили представить самостоятельные проекты, но ему ничего не приходило в голову. «Меня совершенно не занимало то, что интересовало других. Не было никаких идей. Я уже думал, что меня отчислят».
Но однажды вечером, сидя дома, Динакар по телевизору услышал сообщение Андерсона Купера о Тайлере Клементи, восемнадцатилетнем студенте-скрипаче. Клементи бросился с моста Джорджа Вашингтона и утонул в реке Гудзон. Сокурсник Клементи, живший с ним в одной комнате в общежитии, показал своим друзьям запись того, как Клементи целуется с каким-то парнем. В программе выступил вездесущий доктор Фил, который поговорил с Купером о тяжелых последствиях кибертравли, которые не исчезают так же быстро, как последствия травли «в реальной жизни»: «Такой человек, объект травли, думает: ”Я опозорен и уничтожен — навсегда и непоправимо”. Это такое глубокое отчаяние, что оно может довести человека до самоубийства... Самое главное для жертвы и самое тяжелое — это то, что его позор и унижение видел весь мир. Жертва уверена, что все, кто это видел, отреагируют так же, как человек, который выставил его на всеобщее обозрение». Динакар смотрел программу и думал, что должен найтись способ пресекать такую жестокость, отслеживать неприемлемое сетевое поведение и устранять записи и посты его носителей.
Большинство социальных сайтов оставляют эту проблему на усмотрение сетевого сообщества. В Facebook, Twitter и подобных сетях есть кнопка, которая позволяет «пометить это как неприемлемое», если пользователь не одобряет контент. В нашу эпоху краудсорсинга, апофеозом которого стала «Википедия», такая общественная модерация не лишена здравого смысла, и, возможно, иногда это соответствует действительности44. «Но на самом деле происходит следующее: все эти отметки сливаются в один поток и направляются в команду модераторов, — объяснял мне Динакар, — которые должны их просмотреть. Никого в сети не банят автоматически, поэтому возникает большая проблема: каким образом справиться с восемьюстами миллионами пользователей, которые помечают флажками посты друг друга?» (В самом деле, у Facebook более миллиарда пользователей, действиями которых надо как-то управлять.) «Правда заключается в том, что команды модераторов смехотворно малы в сравнении с объемом контента, который подлежит модерированию. Понятно, что такая задача им не под силу. Я понял, что модераторам должна помочь технология. Мне даже показалось странным, что никто не работает над этой проблемой».
Самый элементарный алгоритм, который ищет признаки оскорбительного поведения, может отмечать такие слова, как «педик» или «шлюха». Но он не в состоянии поместить это слово в надлежащий контекст. Например, такой алгоритм способен пометить данный абзац как оскорбительный просто потому, что в нем содержатся эти слова. Однако наш мозг и наш рассудок не работают по принципу «вкл.-выкл.» Постижение смысла требует тонкого понимания контекста, а с этим у компьютера всегда возникают проблемы. Динакар решил создать способ идентифицировать темы. «Мозг, — сказал он, — это полином45. Другими словами, мы мыслим, комбинируя несколько понятий в определенном порядке и последовательности, а не распознавая отдельные слова. Если, например, я скажу парню, что ему пойдет губная помада, то компьютер не расценит это как оскорбление. Но человек поймет, что это издевка». Динакар захотел научить компьютер такому распознаванию.
Решение пришло в форме латентного размещения Дирихле (latent Dirichlet allocation, LDA), сложной модели семантического анализа текстов, разработанной в 2003 году. Модель позволяет обнаруживать темы внутри бесконечного числа словесных комбинаций, выбрасываемых мозгом. LDA полиномиально, как и наш мозг, и работает «с мешком неявных ассоциаций», как выразился Динакар. Он начал с простого допущения о том, что такой мешок существует: «Если нам удастся уловить дифференциал силы между людьми, то нам удастся искоренить и случаи травли».