[Персональная страница Дмитрия Сепетого]

[Содержание]

5. Компьютерная аналогия. Проблема понимания:

Китайская комната и “очемтость” (интенциональность)

Петр Иванович: А не можем ли мы объяснить человеческое сознание по аналогии с компьютером? В самом деле, немало ученых считают, что человеческий мозг – это очень сложный компьютер.

Иван Петрович: Возможно, они не совсем неправы. Возможно, что мозг “работает” по принципам, подобным тем, по которым работает компьютер. Хотя на самом деле это – лишь популярная научная гипотеза, которая еще не разработана достаточно детально, чтобы ее можно было экспериментально проверить. Я лично считаю, что сознание и мозг – это разные вещи, которые взаимодействуют между собой. Мозг не является самодостаточной системой, которая работает без любого вмешательства со стороны сознания (как, кстати, и компьютер, который программируется и перепрограммируется людьми – существами, наделенными сознанием). В любом случае, аналогия между мозгом и компьютером не объясняет сознания.

Петр Иванович: Почему? Разве наше мышление не является, в сущности, такой же обработкой информации, как и та, которую выполняет компьютер?

Иван Петрович: Не совсем. Наше мышление – это не только обработка информации, но также понимание смысла этой информации и обработки. Нет оснований считать, что компьютер может что-то понимать. Понимание, осознание смысла – вот что отличает сознание от простой обработки информации.

Информация имеет смысл лишь для людей, которые ее понимают. Компьютерная “информация” сама по себе – это лишь комбинация элементов с разными физическими (электромагнитными) состояниями. (Так же как и “информация” в книге сама по себе – это лишь некоторая конфигурация типографской краски на бумаге.) Одна такая комбинация (информация на входе) вызывает определенные физические (электромагнитные) процессы внутри компьютера, и эти процессы имеют результатом формирование новой такой комбинации (информация на выходе).

Люди изобрели такой способ использования своих знаний физических (электромагнитных) законов, который позволяет конструировать сложные физические системы (компьютеры), которые после некоторой настройки (программирование) могут имитировать некоторые процессы мышления – математические и другие формальные операции. Но эта имитация состоит лишь в продуцировании некоторой комбинации электромагнитных состояний (которые человек понимает как информацию на выходе) под влиянием другой подобной комбинации (которую человек понимает как информацию на входе) и еще одной комбинации (которую программист понимает как программу). Компьютеры не понимают, что означают их электромагнитные состояния и процессы – лишь люди имеют такое понимание, поскольку они имеют сознание.

Итак, мышление (как процесс сознания) – это не только обработка информации, расчет, но также осознание и понимание. Компьютеры не мыслят – так как они не понимают. Люди создали их для того, чтобы они обрабатывали определенную информацию определенным способом – и они это делают автоматически, без понимания смысла "информации", без осознания того, что, почему и зачем они делают, – без понимания и осознания чего бы то ни было.

Возможно, что организация человеческого мозга в значительной мере подобна организации компьютера и основывается на тех же принципах. Но нет оснований считать, что организация человеческого мозга целиком идентична организации компьютера, а также что она является самодостаточной для мышления и не оставляет места для влияния чего-то нефизического (души, Я).

На самом деле, компьютерная аналогия никак не объясняет сознание – способность к осознанию и пониманию.

 

Китайская комната Джона Сëрла

Мысленный эксперимент Китайской комнаты, предложенный Дж.Сëрлом,[1] – это классическая иллюстрация отличия между мышлением и его компьютерной имитацией (Сëрл употребляет слово “симуляция”), то есть между обработкой информации, которая осуществляется осмысленно, на основе понимания, и обработкой информации, которая осуществляется автоматически по определенной программе (алгоритму), – даже если извне (по данным на входе и результатам на выходе) эти процессы невозможно отличить.

Начнем (следуя за Сëрлом) с проблемно-теоретической ситуации, к которой относится этот эксперимент.

Предположим, мне дали прочитать некоторый текст. Как можно узнать, понял ли я его? Возможно, это можно сделать следующим образом: задать мне вопрос, на который в тексте нет прямого ответа[2], но на который сможет ответить тот, кто понимает смысл текста и вопроса. Например:

Рассказ:

Мужчина пришел в ресторан и заказал гамбургер. Он долго ждал, а когда дождался, то гамбургер оказался совсем прогоревшим. Мужчина пришел в ярость, накричал на официанта и выскочил из ресторана, не заплатив.

Вопрос:

Съел ли мужчина гамбургер?

Наверное, каждый из нас легко догадается, каков правильный ответ.  Возможно ли, чтобы компьютер давал на подобные вопросы правильные ответы? Если да, то будет ли это означать, что компьютер понимает рассказ и вопрос? Ответ на первый вопрос: да. Ответ на второй: нет.

Как возможно, чтобы компьютер давал правильные ответы на такие вопросы? Чтобы ответить на этот вопрос, сначала поставим другой: благодаря чему человек может правильно отвечать на такие вопросы? Наверное, благодаря тому, что человек владеет некоторой дополнительной информацией о людях и их поведении в ресторанах. Но ведь такую информацию можно заложить и в компьютер, и разработать программу, которая будет с ней работать!

Предположим, что ученые разработали компьютерную программу “Ресторан”. Программа работает, кроме данных на входе, которые пользователь вводит с клавиатуры, с базой данных, в которую заложена (как некоторая последовательность символов, электромагнитных состояний элементов памяти компьютера) компьютерная “репрезентация” той информации о ресторанах и поведении их клиентов, на основе которой каждый из нас, выслушав рассказ и вопрос, подобные описанным выше, может давать ответы, – назовем это “фоновыми данными” (background data).  Программа получает на входе две последовательности символов – “рассказ” и “вопрос”, по некоторой очень сложной системе правил (алгоритму) комбинирует их символы с фоновыми данными, и выдает результат – “ответ”. Предположим, что эти ответы совпадают с теми, которые дали бы мы.  Означает ли это, что компьютер понимает рассказ и вопрос? Джон Сëрл утверждает, что нет, и объясняет это следующим мысленным экспериментом.

Я совсем не знаю китайского языка. Я даже не смогу отличить китайские иероглифы от, скажем, японских. Вообразите, что мне дали большую книгу, исписанную китайскими иероглифами. Потом мне объяснили “правила игры”: время от времени мне будут давать два листа бумаги, на каждом из которых написаны разные последовательности китайских иероглифов. Мне нужно будет скомбинировать символы (иероглифы) с этих двух листов и из книги в соответствии с определенной системой правил (по определенному алгоритму), записать результат на чистом листе бумаги и отдать этот лист. Мне дали инструкцию (алгоритм) по комбинированию символов. Потом меня поместили в специальную комнату, в окошко которой время от времени подавали две исписанные китайскими иероглифами бумажки и забирали ту бумажку, которую я заполнял по установленным правилам. Предположим, что в книге, которую мне дали, содержится (на китайском языке) та самая фоновая информация о ресторанах и поведении их клиентов, а на листах бумаги, которые мне время от времени дают – рассказы и вопросы на китайском языке, которые касаются ресторанных дел. Но я об этом даже не догадываюсь, так как не понимаю китайского языка. Тем не менее, если я правильно выполняю алгоритм комбинирования, и сам алгоритм правилен, то та последовательность китайских иероглифов, которую я записываю на бумаге и отдаю экспериментаторам, будет (хотя я об этом и не догадываюсь) “ответом” на поставленный “вопрос”.

Предположим, что рядом с моей комнатой есть другая, в которой сидит китаец. Он получает в окошко точно такие же листы бумаги с рассказами и вопросами, как и я, и выдает наружу листы бумаги с такими же ответами. С точки зрения внешнего наблюдателя, который будет видеть лишь бумажки, которые поступают в одну и другую комнаты и выходят из них, не будет заметно никакого отличия. Он не сможет догадаться, где сидит китаец, а где я. Тем не менее, есть кардинальное отличие между тем, что делаю я, и тем, что делает китаец: для меня те комбинации символов, которые я получаю, продуцирую и выдаю наружу, лишены смысла, – я их не понимаю; в то время как для китайца они являются рассказом, вопросом и ответом, – он их понимает. Я выполняю функции компьютерной программы, которая лишь имитирует (симулирует) понимание, в то время как он действительно понимает.

Китайская комната и тест Тьюринга

Выдающийся математик, разработчик математических оснований компьютерных технологий Алан Тьюринг предложил тест, который, по его мнению, мог бы служить критерием того, понимает ли компьютер информацию (и, следовательно, имеет ли он сознание).

Суть теста такова: эксперт-тестировщик через клавиатуру и монитор “общается”, с одной стороны, с человеком, который понимает его язык, и, с другой стороны, с компьютером, который выполняет соответствующую программу. При этом эксперт не видит и не знает, с кем он общается: кто из его “собеседников” человек, а кто – компьютер. Если эксперт не сможет правильно различить, где кто, или в своих догадках будет ошибаться так же часто, как правильно угадывать, то компьютер прошел тест Тьюринга. В таком случае, следует считать, что компьютер понимает те вопросы, которые задает ему эксперт, и дает на них осмысленные ответы (и, следовательно, имеет сознание).

Ни один компьютер (компьютерная программа) пока что не прошел тест Тьюринга. Тем не менее, кажется, что нет веских оснований считать, что прохождение компьютером теста Тьюринга в принципе невозможно. В компьютер возможно ввести любой объем информации. Есть разнообразные алгоритмы и программы, выполняя которые компьютер может генерировать ответы на вопросы экспертов. Хотя пока что они очень несовершенны и неспособны ввести в заблуждение эксперта, они могут постоянно совершенствоваться. Разработчики соответствующих программ будут изучать, почему эксперты решили, что общаются с компьютером, а не c человеком (какие именно ответы показались им “нечеловеческими” и какими правдоподобно могли бы быть человеческие ответы), будут вносить в свои алгоритмы соответствующие изменения-усовершенствования, дополнять информационную базу; в результате  ответы компьютеров будут становиться все более и более (чаще и чаще) подобными тем, которые мог бы дать человек, так что догадаться где кто будет становиться все труднее и труднее. Насколько далеко это на самом деле зайдет, предусмотреть невозможно. Но в принципе, кажется, что нет веских оснований отрицать возможность такого алгоритма (программы), выполнение которого, с доступом к достаточно большой информационной базе (соизмеримой со всей массой знаний, которыми владеет обычный человек, включительно с теми, которые человек явным образом не помнит, но которые как-то сохраняются в его памяти, − которые он может при каких-то условиях припомнить, или которые он использует подсознательно и т.п.), может ввести в заблуждение самого изобретательного эксперта-тестировщика.

Но мысленный эксперимент Джона Сëрла показывает, что даже если компьютер пройдет тест Тьюринга, это не будет означать, что он понимает информацию. Больее того, поскольку мы знаем, что все, что делает компьютер – это комбинирование символов по определенному алгоритму, то мы имеем веские основания считать, что компьютер, который прошел тест Тьюринга, все же не понимает информации. Если я, находясь в Китайской комнате, буду иметь достаточно большую информационную базу в виде огромной книги, исписанной китайскими иероглифами, буду вооружен правильным алгоритмом и буду точно его выполнять, то я пройду тест Тьюринга на понимание китайского языка, не понимая китайского языка.

 

“Очемтость” (интенциональность)

Мысленный эксперимент Сëрла с Китайской комнатой ясно показывает, что существует принципиальное различие между настоящим пониманием и его имитацией – даже если это совершенная имитация (симуляция), которую (извне) невозможно отличить от оригинала. Но в чем именно отличие? Что означает “настоящее понимание”? Мы сможем лучшее это понять, если обратимся к понятию интенциональности (intentionality) или очемтости (aboutness, ofness).

Это понятие указывает на тот факт, что наши мысли, идеи, высказывания, слова есть не просто последовательности звуков или знаков (букв), – они означают что-то, есть о чем-то. Например, слово “дерево” означает дерево – какое-то растение, которое принадлежит к классу деревьев. А высказывание “Листва на дереве зеленая” есть высказывание о дереве и его листьях.

В терминах лингвистики (науки о языке) это свойство языковых выражений называется семантикой. Семантика – это сфера смыслов языковых выражений (что означают слова, фразы или предложения, на что они указывают, о чем они); ее необходимо отличать от синтаксиса как системы правил организации языковых выражений – связывания слов во фразы, фраз в предложения, предложений в более сложные тексты. Используя эти термины, Дж.Сëрл подытоживает мысленный эксперимент с Китайской комнатой выводом: компьютер “имеет лишь синтаксис, но не имеет семантики.[3] Та интенциональность, которую, как кажется, имеет компьютер, содержится лишь в сознании тех, кто его программирует, и тех, кто его использует, кто вводит входную последовательность знаков (input) и истолковывает последовательность знаков на выходе (output)”.[4] – Как в случае с Китайской комнатой: та интенциональность (смысл), которую, как это выглядит извне, имеют записанные мною последовательности  китайских иероглифов (которых я на самом деле не понимаю, которые для меня ничего не означают), содержится лишь в сознании внешних наблюдателей, которые владеют китайским языком.

Физические состояния и процессы (включая те, которые имеют место в человеческом мозге) не имеют такого свойства как интенциональность: они есть просто то, что они есть – определенные физические структуры и процессы их изменений; они никогда не бывают о чем-то. Однако мы можем использовать определенные физические объекты, свойства, состояния, процессы чтобы обозначать ими что-то, чтобы они представляли-символизировали для нас некоторые смыслы. Именно это мы и делаем, когда пишем книги или конструируем и используем компьютеры. В простейшем случае устной речи мы используем некоторые звуковые последовательности (которые физически являются лишь специфическими колебаниями воздуха, которые вызываются движениями нашего горла, языка, губ), чтобы представлять и передавать те или иные смыслы. Но такие физические состояния и процессы не имеют никаких смыслов сами по себе, как физические состояния и процессы; их смыслы конвенциональные – они приписываются им договоренностью (конвенцией) между людьми. Если ветер случайно вызовет колебания воздуха, которые будут звучать как некоторые высказывания на украинском языке, эти звуки на самом деле не будут осмысленными высказываниями. Высказывания на украинском языке не являются осмысленными для тех людей, которые не понимают украинского языка, так же как китайские надписи не являются осмысленными для меня. На самом деле, любые физические объекты возможно использовать чтобы представлять определенные смыслы. Например, мы можем использовать камни или конфигурации камней определенных размеров и форм, чтобы обозначать определенные слова. Мы можем ввести определенные правила организации этой камнеписи, которые будут приписывать определенным конфигурациям камней смыслы предложений и текстов. Соответственно, некоторые сложные комплексы камней могут представлять осмысленные высказывания, – конвенционально, но не физически: для всех тех людей, которые не научены смыслам (семантика) и правилам (синтаксис) этого каменного языка, они являются просто грудами камней, которые не имеют никакого смысла, – как бы много эти люди ни знали об их физических свойствах.

Если я понимаю смысл слов и высказываний, это означает: 1) я знаю, что они о чем-то, и 2) я знаю, о чем они.

Компьютерные программы не имеют ничего общего с пониманием. Как говорит об этом Сëрл, компьютеры не делают ничего иного кроме “формальных манипуляций символами” (знаками), которые “даже не являются манипуляциями символами, поскольку "символы" ничего не символизируют”[5] (знаки ничего не означают) для самого компьютера.

Популярное представление о том, что мозг является своего рода компьютером и что компьютеры могут мыслить, происходит главным образом от “путаницы относительно понятия "обработки информации"”:

“Многие люди, задействованные в когнитивных науках[6] верят, что человеческий мозг, с его сознанием, выполняет что-то, что называется "обработкой информации", и аналогично компьютер с его программами выполняет обработку информации… Изъян этого аргумента в том, что он основывается на двусмысленности понятия "информация". В том смысле, в котором люди "обрабатывают информацию", когда они размышляют, например, о проблемах арифметики или когда они читают рассказы и отвечают на вопросы о них, запрограммированный компьютер не выполняет "обработки информации". Скорее, все, что он делает – манипулирует формальными символами. Тот факт, что программист и интерпретатор компьютерного "выхода"[7] используют символы как обозначения некоторых объектов действительности, целиком вне компетенции компьютера. Компьютер, повторим, имеет синтаксис, но не имеет семантики. Так, если вы введете в компьютер "2 плюс 2 равняется?", он выведет "4". Но он не имеет никакого представления о том, что "4" означает 4 или что этот символ вообще что-то означает. И дело не в том, что ему недостает какой-то информации второго порядка об интерпретации символов первого порядка, а в том, что символы первого порядка вообще не имеют никакой интерпретации поскольку это касается самого компьютера. Все, что имеет компьютер – другие символы. Таким образом, использование понятия "обработка информации" порождает дилемму: либо мы истолковываем понятие "обработка информации" таким образом, что оно предполагает интенциональность как часть процесса, либо нет. В первом смысле, запрограммированный компьютер не выполняет обработки информации; он лишь манипулирует формальными символами. Во втором, хотя компьютер и выполняет обработку информации … нужны еще внешние наблюдатели, чтобы истолковать компьютерные входящие и исходящие данные как информацию в обычном смысле.[8] Так и не установлено никакого подобия между компьютером и мозгом в смысле какого-то подобия в обработке информации.”[9]

 

******

По моему мнению, интенциональность и настоящее понимание укоренены в том, что можно назвать (отталкиваясь от выражений Т.Нагеля) как-бытием[10] или как-чувствованием[11] . Наше понимание языка укоренено в сложной сети субъективных переживаний, в нашем знании разнообразных “как оно – быть Х”, “как оно чувствуется”, которые ассоциируются с разными словами и фразами.[12]

Это достаточно очевидно в случаях высказываний о физическом мире или о других живых существах. Например, мое понимание слова “дождь” неотделимо от моего понимания того, как оно: видеть и слышать дождь, попасть под дождь и т.п.

Существуют разные уровни понимания. Вообразите, например, какого-нибудь жителя пустыни, который никогда не видела дождя. Но он видел воду и знает, что значит 'вверху' и 'внизу'. Так что ему можно объяснить, что дождь – это капли воды, которые падают сверху. Он может представить себе (хотя, возможно, и не очень выразительно), как капли воды падают сверху и в этой мере понять как выглядит дождь.  Он знает, как вода ощущается на прикосновенье (как ощущается мокрость) и в какой-то мере может представить себе как оно ощущается – промокнуть насквозь. Таким образом, он будет иметь некоторое понимание того, что означает слово “дождь”, хотя (поскольку он никогда на самом деле на переживал зрелища дождя и ощущения промокания насквозь) его понимание не будет настолько живым, выразительным, ясным, как наше.

Или возьмем слово “официант”. Вы в некоторой степени понимаете его смысл, если знаете (имеете опыт или можете себе вообразить) как оно – когда тебя обслуживает официант. Вы можете достичь лучшего понимания, если используете свое воображение, чтобы представить себя в роли официанта (как это чувствуется – быть официантом). И Вы достигнете еще лучшего понимания, если поработаете официантом.

С другой стороны, высказывания с более абстрактным содержанием не ассоциируются так просто и непосредственно с субъективным опытом. Например, математические высказывания или формулировки правил обработки информации. Действительно, в случае Китайской комнаты мое отношение и действия относительно китайских иероглифов подобны компьютерной обработке информации, но мое отношение к правилам манипуляции символами совсем не такое, как у компьютера: я понимаю, что имею дело с правилами манипуляции символами, и понимаю эти правила, в то время как компьютер выполняет заданный программистом алгоритм без никакого понимания.

Тем не менее, я думаю, что и математические операции и правила обработки информации интегрированы в определенный субъективный опыт – опыт выполнения соответствующих операций мышления. Мы ничего не поняли бы в математике без некоторого субъективного опыта, который начинается со счета вещей (как процесс счета воспринимается-осознается субъективно) и развивается в более сложные расчеты. Визуальный опыт также важен: мы ничего не поняли бы в геометрии без образов треугольников, прямых линий, кругов и т.п. Я сомневаюсь, возможно ли понять дифференционное и интегральное исчисления без графических объяснений идей предела, бесконечно малых, функции, производной, интеграла...

 

Понимание высказываний не только интегрировано в субъективный опыт, переживания, но и само является специфическим субъективным состоянием-переживанием. Понимание слова, фразы, высказывания – это осознание его смысла. По моему мнению, осознание является фундаментальным субъективным состоянием; оно переживается субъективно, не сводится ни к каким иным субъективным переживаниям и не объясняется через них. Вопросу: “Как оно − что-то осознавать?” отвечает что-то в наших субъективных переживаннях. (Вообразите Архимеда, который вдруг понял-осознал, как решается проблема, над которой он долго безуспешно ломал голову: “Эврика!”.) Если мы не можем описать наше субъективное переживание понимания-осознания, это не должно нас пугать: такая неспособность означает только то, что это субъективное переживание осознания является фундаментальным, – вот почему его невозможно описать в терминах других субъективных переживаний. Во всем, что мы знаем о компьютерах (как они сконструированы и как они выполняют свои функции) нет ничего, что указывало бы на осознание.

 

Понимание и интенциональность имеют еще одну важную существенную черту: субъективный интерес. В нашем субъективном опыте есть что-то, что отвечает вопросу: “Как оно – быть заинтересованным в определенной проблеме?” И никакое понимание невозможное без некоторого (большего или меньшего) субъективного интереса.

Эрих Фромм в работе “Иметь или быть” дает хорошие иллюстрации относительно двух типов знания, обучения, воспоминания и т.п. – живое (основывающееся на принципе бытия) и механическое (основывающееся на принципе владения). Я думаю, что как раз эта “жизненность” – интерес и ассоциации с субъективными переживаниями – создает настоящее понимание.

Системное возражение

Оппоненты Сëрла (преимущественно, материалисты) предложили остроумный ответ. Они признали, что если я, находясь в Китайской комнате, выполняю соответствующий алгоритм, то я, конечно же, не понимаю китайского языка и того, что написано в книге и на клочках бумаги. Вместе с тем они утверждали, что посторонний наблюдатель, который, наблюдая извне за движением листков бумаги и читая надписи на них, сделает вывод, что в Китайской комнате есть кто-то, кто понимает китайский язык, будет прав. С их точки зрения, понимание китайского языка будет принадлежать не моему сознанию, а сознанию Китайской комнаты. Если я обрабатываю информацию (манипулирую символами) по правильному алгоритму (такому же, как и тот, по которому эту обработку осуществляет мозг), то система, которая состоит из меня, книги и вспомогательных средств (таких как, например, карандаш) имеет собственное сознание (отличное от моего), которое понимает китайский язык.

Сëрл возражал, что даже если я бы я обладал супермощной памятью и разумом, выучил бы наизусть инструкцию, запомнил бы всю последовательность символов в книге и выполнял бы все операции по обработке информации (манипуляции символами) в уме, то я все равно не понимал бы китайского языка. Чтобы отклонить это возражение, эпифеноменалист Дэвид Чалмерс (1996) предполагал, что поскольку ситуация по сути такая же, как и в случае, если я пользуюсь книгой и вспомогательными средствами, но она “загнана внутрь”, то сознание, которое понимает китайский язык, все равно возникнет: “это следует рассматривать как пример двух ментальных систем, которые реализованы в одном и том же участке физического пространства”.[13] То есть, Чалмерс считал, что с моим мозгом будет ассоциировано, кроме собственно моего сознания, еще какое-то второе сознание, которое понимает китайский язык, хотя я о нем ничего не знаю. Это предположение навряд ли можно признать правдоподобным, поскольку обработку информации осуществляю я, а не какое-то неизвестное мне второе "я". (Возможно, с точки зрения Чалмерса это выглядело не так, поскольку он придерживался теории эпифеноменализма, в соответствии с которой сознание все равно ни на что не влияет: и я, и китаец делали бы все то же самое, если бы вообще не имели сознания. Поэтому вполне возможно, что соответствующий процесс обработки информации мозгом порождает какое-то новое, неизвестное мне сознание, или несколько новых сознаний...)

Хотя идея о том, что в Китайской комнате (или даже в моем мозге) возникает какое-то второе сознание, которое понимает китайский язык, кажется очень неправдоподобной, этот аргумент интересен тем, что побуждает подумать в противоположном направлении: 

если очень неправдоподобно предположение о том, что система, которая состоит из человека, наделенного сознанием, и определенного множества вспомогательных средств, будет иметь (или “породит”) собственное сознание, отличное от сознания человека, 

то разве не настолько же неправдоподобно предположение о том, что система, которая состоит из одних лишь элементов, не наделенных сознанием (которые взаимодействуют чисто автоматически по физическим законам), будет иметь (или “породит”) сознание?

Это одинаково относится как к компьютеру, который выполняет определенную программу, так и к мозгу. Мы просто привыкли ассоциировать мозг с сознанием, но если отвлечься от этой привычки и посмотреть на ситуацию беспристрастно, то в мозге нет ничего особого, что давало бы ему принципиальное преимущество над другими возможными реализациями этой же информационной модели – будь-то Китайская комната или компьютер. Это хорошо иллюстрирует фантастический рассказ Терри Биссона, в котором разумные инопланетяне с телом и мозгом на силиконовой основе, узнав о людях, никак не могут поверить, что обычное мясо (или серое желеобразное вещество человеческого мозга) может быть сознательным и разумным. Наше ощущение невероятности от идеи о том, что компьютеры, реализованные на силиконовой основе, могут иметь (а не только имитировать) сознание, или что его может иметь Китайская комната, есть, в сущности, то же самое.

 

От Китайской комнаты к Китайскому роботу

Другая интересная попытка отражения аргумента Китайской комнаты состоит в предположении, что компьютерная реализация понимания возможна, если Китайскую комнату, которая реализует синтаксис, дополнить семантическими функциональными блоками. Речь идет вот о чем.

По мнению Сëрла, мысленный эксперимент Китайской комнаты показывает, что какой бы совершенной ни была компьютерная имитация сознания (понимания); она все равно будет лишь симуляцией, а не реализацией (Сëрл употребляет слово “дубликация”). В частности, это будет так, даже если компьютер сможет отвечать на вопросы настолько хорошо, что по этим ответам его невозможно будет отличить от человека. Однако, как обращает внимание российский философ В.Васильев, тут возникает проблема: как быть с такими вопросами, на которые человек не знает ответа, но на которые он может ответить, посмотрев куда-то (или обратившись к какому-то источнику за дополнительной информацией каким-либо иным способом)? Очевидно, компьютер нельзя запрограммировать заранее на такие ответы. Рассмотрим несколько примеров в модели Китайской комнаты.

Если я получу записку с вопросом на китайском языке, означающем “Который сейчас час?”, то я не могу получить ответ путем манипулирования китайскими иероглифами по заданному алгоритму. Если же в алгоритме будет инструкция посмотреть на часы и обработать их показания в соответствии с определенными дальнейшими инструкциями, и в результате я получу какие-то китайские иероглифы, то я могу легко догадаться о смысле входящей последовательности китайских иероглифов (вопрос “Который сейчас час?”) и последовательности, сформированной мной как ответ.

Или представим, что человек, задаюющий вопросы, заранее принес в ту комнату какой-то предмет – к примеру, банку кока-колы – и поставил его на стол… И теперь он спрашивает: "Что Вы видите на столе?"”[14] Вопрос задается в записке на китайском языке. Если алгоритм обработки символов содержит инструкцию записать тот или иной иероглиф в зависимости от того, что стоит на столе, то понятно, что я догадаюсь о значении этого иероглифа, а также, вероятно, о значении иероглифов в записке.

Или предположим, что в полученной мною записке с китайскими иероглифами есть фрагмент, который китаец мог бы прочитать как вопрос: "Какая сейчас погода?" Но я об этом не знаю, я просто выполняю алгоритм обработки этих символов. Очередная инструкция алгоритма оказывается такой: "Выгляньте в окно, если там дождь, то запишите иероглиф , а если солнечно – запишите иероглиф ."

Понятно, что выполняя такие алгоритмы, я начну понимать китайский язык.

Но в таком случае, если компьютер дополнить периферийными устройствами (такими, как телекамера, звукозаписывающее устройство, часы, термометр и т.п.), которые могут по запросу компьютера получать внешнюю информацию и передавать компьютеру соответствующие потоки данных, которые он будет обрабатывать по определенному алгоритму, то, возможно, что и эта система в процессе выполнения алгоритмов обработки китайских иероглифов, дополненном взаимодействием с внешним миром, будет обретать понимание китайского языка? Можем вообразить эту систему как робота, у которого место мозга занимает компьютер, который имеет вместо глаз телекамеры, вместо ушей – звукозаписывающие устройства, может передвигаться и т.п. Некоторые оппоненты Сëрла выдвигали предположение, что такой робот способен обрести понимание китайского языка.

Сëрл рассматривал это возражение, и дал на него ответ.[15] Чтобы учесть некоторые специфические моменты возражения В.Васильева, я несколько адаптирую и детализирую ответ Сëрла.

Можем представить себе Китайского робота, в голове которого расположена Китайская комната, в которой я выполняю манипулирование китайскими иероглифами согласно алгоритму. Чтобы это было аналогично тому, что делает компьютер, алгоритм, который я выполняю, не должен содержать инструкций типа: посмотреть на часы, или в окно, или еще куда-то, и в зависимости от увиденного записать те или иные иероглифы. Вместо этого, я просто, помимо того, что я делал в исходной версии эксперимента Китайской комнаты, буду иногда передавать и получать в окошко дополнительные листики с иероглифами или какими-то другими символами, смысл которых мне неизвестен (например, числами, о которых я не знаю, что они обозначают). Допустим, что выполняя алгоритм, я перехожу к инструкции: “Запишите на листике числа 235, 245, 655, передайте листик в окошко, и дождитесь в ответ другого листика с цифрами”. Я выполняю инструкцию и получаю листик с цифрами “123, 545, 36789, 25”. Дальнейшие инструкции алгоритма говорят мне, какие действия по манипуляции китайскими иероглифами и цифрами мне нужно выполнить в зависимости от списка полученных цифр. Понятно, что в таком случае выполнение алгоритма не даст мне никакого понимания китайского языка. Однако это именно то, что делает компьютер при “общении с периферийными устройствами, от которых он может получать внешние данные (визуальные камеры, датчики температуры, влажности, часы и т.д.). Компьютер изменяет электромагнитные состояния некоторых своих специальных информационных ячеек (которые соединены с тем или иным периферийным устройством) – эти состояния могут быть на языке информатики представлены как последовательности ‘0’ и ‘1’ (битов) или, для более компактного представления, бóльших чисел (например, последовательность из 8 бит – байт – может быть представлена как число от 0 до 255) или (по договоренности) каких-то других знаков (например, китайских иероглифов). Такие изменения вызывают определенные действия периферийных устройств, в результате чего периферийные устройства вызывают соответствующие изменения некоторых других информационных ячеек компьютера. Далее компьютер обрабатывает в соответствии с алгоритмом значения (последовательности битов, чисел, или китайских иероглифов) этих ячеек. Как видим, по сравнению с исходным экспериментом Китайской комнаты, ничего принципиально не меняется, – по крайней мере, поскольку речь идет о компьютере и его (отсутствующем) понимающем мышлении.

Однако В.Васильев возражает против такого вывода:

“…модификация  Китайской комнаты и … превращение Комнаты в Робота … в  корне  меняет условия  мысленного  эксперимента… Во-первых,  робот наделен собственной программой, которая неизвестна Сёрлу, тогда как первоначально предполагалось, что Сёрл знает и исполняет всю программу,  позволяющую  эмулировать  языковую  компетентность. Во-вторых,  программа,  инсталлированная  в  робота,  имеет  весьма специфический,  квази-семантический  характер.  Ведь  в  этой программе должны быть прописаны не только соотношения между иероглифами,  но  и  отношения  иероглифов  к  определенным неиероглифическим,  физическим  данным,  получаемым  его телекамерой,  и  эти  данные,  в  отличие  от  иероглифов,  были  бы понятны Сёрлу, если бы он имел возможность ознакомиться с ними. Соответственно,  если  предположить,  что,  в  согласии  с изначальными  допущениями,  Сёрл  знал  бы  всю  программу  или совокупность  программ,  позволяющих  эмулировать  осмысленную китайскую речь, он начал бы понимать по-китайски. В самом деле, представим, что Сёрл узнает программу робота. В таком случае он поймет, что такое-то движение его телекамеры соответствует такой-то  китайской  команде,  что  наличие  перед  телекамерой  предметов определенного  вида  обозначается  такими-то  иероглифами,  что другой  тип  предметов  обозначается  другими  и  т.  п.  Но  подобное знание  как  раз  и  позволит  ему  насытить  синтаксические  аспекты китайского языка семантическим содержанием.”[16]

Я думаю, что это возражение ошибочно. В ситуации Китайского робота нет никаких других алгоритмов, кроме алгоритмов, выполняемых компьютером, которые точно так же мог бы выполнять я в Китайской комнате, передавая в окошко листики со сформированными по алгоритму цифрами и получая в ответ листики с другими цифрами. Периферийные устройства, получающие команды от компьютера и передающие данные в компьютер, не нуждаются в собственной программе, собственном алгоритме. Взаимодействия периферийных устройств с компьютером и внешней средой могут быть чисто каузальными[17]: определенные состояния ячеек компьютера вызывают определенные физические процессы в периферийном устройстве, которые определяют “режим” взаимодействия периферийного устройства с внешней средой; это взаимодействие, в свою очередь, определяет те сигналы (электромагнитные состояния), которые периферийное устройство передает на соответствующие информационные ячейки компьютера. В таком случае, вся алгоритмическая обработка информации происходит в компьютере.[18] И она может, в принципе, точно так же быть выполнена человеком в Китайской комнате и даже “интериоризирована” (при допущении суперсознания с суперпамятью). Причем такое знание и выполнение алгоритма, как объяснялось выше, ничего не может дать для понимания китайского языка.

Вопреки утверждению Васильева, ни в какой программе не “должны быть прописаны … отношения  иероглифов  к  определенным неиероглифическим,  физическим  данным,  получаемым  его телекамерой”, так что “эти  данные,  в  отличие  от  иероглифов,  были  бы понятны Сёрлу, если бы он имел возможность ознакомиться с ними”. Все, что должно быть прописано в программе, поскольку речь идет о данных, получаемых компьютером от камеры, это отношения  иероглифов к информационным состояниям (данным) соответствующих ячеек памяти компьютера. И эти данные, точно так же, как иероглифы, отнюдь не были бы понятны Сëрлу, если бы он имел возможность ознакомиться с ними, поскольку они, как и все другие данные в компьютере, представляют собою просто последовательности нулей и единиц (значений битов), которые могут означать все, что угодно. Также, “если  предположить,  что,  в  согласии  с изначальными  допущениями,  Сёрл  знал  бы  всю  программу  или совокупность  программ”, то в таком случае он не “поймет, что такое-то движение его телекамеры соответствует такой-то  китайской  команде,  что  наличие  перед  телекамерой  предметов определенного  вида  обозначается  такими-то  иероглифами”, поскольку он не знает ни о движении камеры, ни о ее устройстве, ни о предметах, находящихся перед ней, ни даже о том, что сформированная им по алгоритму “команда” (последовательность битов, или цифр, или иероглифов) управляет телекамерой, а не  сканнером или звукозаписывающим устройством, или даже часами или термометром.

Правда, из алгоритма обработки данных, представляющих определенного рода физические объекты, часто в принципе возможно догадаться о том, какие физические объекты представляют эти данные. Однако такие догадки – это дополнительная работа понимающего мышления, воображения, а не запоминание или выполнение алгоритма. И чтобы такие догадки были возможны, догадывающийся субъект должен уже иметь хорошее понятие о физических объектах соответствующего рода.

Васильев мог бы возразить, что даже если мои предшествующие рассуждения верны, то ни они, ни аргументация Сëрла не показывают, что система, состоящая из компьютера (манипулирующего символами по определенному алгоритму) и периферийных устройств, взаимодействующих с компьютером и внешней средой (даже если это взаимодействие чисто каузальное, и периферийные устройства не выполняют никакой собственной программы), не мыслит (в смысле понимающего мышления). С этим следует согласиться. Действительно, все, что показали мои предшествующие рассуждения (если они верны), как и аргументация Сëрла, это то, что компьютер, выполняющий алгоритмы, не обладает в силу этого пониманием, что выполнение компьютером алгоритмов недостаточно для понимающего мышления. Для распространения этого вывода на систему, состоящую из компьютера и периферийных устройств, нужна дополнительная аргументация. Далее я предлагаю такую аргументацию.

 

Предположим, у нас имеется система, состоящая из компьютера, манипулирующего символами по некоторому алгоритму, и периферийных устройств, которые могут взаимодействовать с компьютером и внешней средой, снабжая компьютер нужной внешней информацией. Предположим, что эти периферийные устройства никогда еще не использовались; компьютер еще ни разу к ним не обращался. Систему тестируют на понимание китайского языка по тесту Тьюринга. Тестировщики задают только такие вопросы, для ответа на которые компьютеру не нужно обращаться за дополнительной информацией к внешним источникам (с помощью периферийных устройств). Как и в исходной версии мысленного эксперимента Сëрла, компьютер просто манипулирует формальными символами по определенному алгоритму. Из аргументации Сëрла, а также из предложенных мною выше рассуждений мы знаем, что такая обработка информации недостаточна для понимающего мышления – компьютер не понимает той информации, которую он обрабатывает, и смысла выполняемых им операций. Поскольку периферийные устройства бездействуют, то обработка информации системой в данном случае эквивалентна обработке информации компьютером. А значит, вся система, как и компьютер, не мыслит, не понимает. Таким образом, система не способна понять ни одной истории и вопросов к таким историям.

Предположим, далее, что системе задается вопрос, для ответа на который компьютеру нужно обратиться к какому-то периферийному устройству за внешней информацией. Компьютер выполняет соответствующий алгоритм; где то в процессе выполнения компьютер меняет информационные состояния (последовательности битов) ячеек памяти, связанных с периферийным устройством; периферийное устройство выполняет некоторые действия и меняет информационные состояния (последовательности битов) соответствующих ячеек памяти компьютера; эти измененные состояния подвергаются дальнейшей алгоритмической обработке. Как мы знаем (из аргумента Серля и приведенных выше соображений), компьютер не понимает смысла всех этих процессов (он вообще их не осознает); тем более ничего этого не понимает (и не осознает) периферийное устройство. Непонятно, как возможно, чтобы система, состоящая из этих двух ничего не понимающих, не осознающих устройств, что-то понимала, осознавала. Однако пока оставим вопрос о такой возможности открытым.

Что меняется в системе по мере того, как компьютер с помощью периферийных устройств все больше и больше “общается” с внешним миром? В принципе, ничего. Правда, какие-то данные (последовательности битов) в каких-то ячейках памяти компьютера переписываются, меняются. Однако любые такие данные могли бы быть записаны в соответствующие ячейки памяти изначально, еще до каких-либо взаимодействий (через периферийные устройства) с внешним миром, изменяющих данные в компьютере.

Возьмем два одинаковых компьютера с одинаковой памятью, соединенных с одинаковыми периферийными устройствами. Первая система на протяжении длительного периода через периферийные устройства “общается” с внешним миром. Вторая все это время выключена. Перед включением программист записал во все ячейки памяти второго компьютера все те же данные, которые содержатся в соответствующих ячейках памяти первого компьютера. Теперь эти две системы совершенно эквивалентны по всем своим информационным состояниям (предположим, что периферийные устройства не имеют собственной памяти).

Мы уже показали, что вторая (только что впервые включенная) система не понимает информации, которая хранится в памяти компьютера, а также вводимых в него с клавиатуры историй и вопросов к ним. Однако поскольку первая (“опытная”) система совершенно эквивалентна второй по всем своим информационным состояниям, то, значит, и она ничего этого не понимает, и весь ее “опыт” взаимодействия с внешним миром не сообщает ее никакого понимания.

Единственная возможность избежать этого вывода состоит в том, чтобы предположить, что у системы возникает сознание как нечто сверх выполняемой ей комп’ютерной обработки информации, и это сознание постепенно развивается по мере взаимодействия системы с внешним миром! Однако в таком случае это сознание должно быть сугубо эпифеноменальным, совершенно не влияющим на действия системы и результаты обработки информации. Ведь если две системы совершенно идентичны по алгоритму обработки информации и по данным во всех ячейках памяти, то в идентичных ситуациях их действия и генерируемый ими результат должны быть совершенно одними и теми же, независимо от их истории (истории взаимодействия с миром и формирования данных в ячейках памяти). Система, изначально пустое сознание которой еще не начало развиваться, обрабатывает информацию (и проходит тест Тьюринга) точно так же, как и система, сознание которой развивалось на протяжении длительного периода взаимодействия с внешним миром!

Заметим также, что даже если допустить, что у системы действительно возникает такое эпифеноменальное сознание, и что благодаря этому сознанию система (робот) становится понимающим существом, то это не только не опровергает аргумент Сëрла, но прямо его подкрепляет. Ведь суть аргумента Сëрла не в том, что невозможно, чтобы в компьютере или роботе каким-то чудесным образом возникло сознание (представим себе, что Бог переселил в робота душу какого-то китайца). Суть аргумента Сëрла в том, что выполнение алгоритма недостаточно для понимания и понимающего мышления; что для понимания и понимающего мышления необходимо (вдобавок или помимо выполнения алгоритма) сознание, которое есть нечто отличное от информационных состояний и процессов (выполнения алгоритмов) компьютера. В случае робота с эмерджентным эпифеноменальным сознанием как раз это и имеет место: помимо выполнения алгоритма есть еще и сознание, текущие состояния и процессы которого не определяются текущими информационными состояниями и процессами компьютера, и никакими иными текущими физическими состояниями и процессами робота, а определяются частично собственным опытом, собственной нефизической памятью.

Новый мозг Мэри

Вообразите себе компьютерную программу под названием “Мозг”. Она на “входе” получает потоки сигналов, более или менее аналогичные тем, которые человеческий мозг получает от нервной системы. Программа обрабатывает эти потоки по очень сложному алгоритму, классифицирует сигналы на зрительные, слуховые, обонятельные, вкусовые, осязательные, болевые (с большим количеством видов и нюансов по каждому из этих классов) и формирует другие потоки сигналов – потоки на “выходе”, более или менее аналогичные тем, которые из человеческого мозга поступают в мышцы. Программа разделена на много подпрограмм, которые имитируют разные функциональные блоки мозга. Эти подпрограммы часть входных данных получают со входа программы “Мозг”, а часть – от других подпрограмм, и, в свою очередь, формируют поток данных на выходе, часть которого идет на вход к другим подпрограммам, а часть – на выход программы “Мозг”. Среди этих подпрограмм функциональных блоков есть подпрограммы с названиями “Зрительные ощущения”, “Боль”, “Радость”, “Грусть”, “Желания”, “Мышление” и т.п..

Разные подпрограммы программы “Мозг” время от времени считывают данные из базы данных “Память” и записывают у нее новые данные. Перед запуском программы начальные данные в базу данных “Память” может загрузить программист.

Программа “Мозг” обменивается данными с программой “Тело”: получает от нее потоки данных, которые имитируют сигналы от нервной системы, обрабатывает их и передает результат – потоки данных, которые имитируют сигналы, поступающие от мозга к двигательным нервам – к программе “Тело”.

Программа “Тело” имитирует функционирование тела кроме мозга. Она тоже очень сложная и содержит в себе много подпрограмм, таких как “Чувствительные нервы”, “Двигательные нервы”, “Мышцы”, “Левая рука”, “Голова”, “Сердце” и т.п., между которыми происходит сложный обмен данными, который имитирует соответствующие процессы в теле человека. (В упрощенном варианте можно обойтись без большинства внутренних органов.)

Наконец, последняя программа – “Внешняя среда” – имитация физического мира, в котором мы живем. Программа формирует разнообразные данные, которые передает на вход к программе “Тело”, и, в свою очередь, получает от нее данные о движениях разных внешних частей тела человека (или тел нескольких человек). Понятно, что программа “Внешняя среда” будет включать в себя подпрограммы “Земля”, “Небо”, “Трава”, “Дерево”, “Дом”, “Стол”, “Борщ” и т.п. для создания программных моделей объектов соответствующих типов, а также из одного или нескольких программных объектов типа “Человек”, которые будут содержать информацию о виртуальном расположении в пространстве виртуального человеческого тела (всей его внешней поверхности) и будут обмениваться данными с программой “Тело”. В частности, программа “Внешняя среда” будет рассчитывать (в соответствии с законами физики) все взаимодействия между физическими телами, которые она моделирует, динамично формировать и изменять изображение на мониторе человека и всего, что происходит вокруг него и с ним.

В общем, потоки данных будут иметь такой вид:

Подпись: ПамятьПодпись: Мозг

Практически, создать такую модель (программу) так, чтобы она выглядела реалистически (воссоздавала достаточно близко к действительности достаточно сложные модели поведения человека в разных ситуациях) очень тяжело. Хотя примитивные реализации такой модели вполне осуществимы. Наверное, в научных центрах, которые работают над проблемами искусственного интеллекта, они уже имеются, − но пока что они очень далеки от реалистического воспроизведения сложного человеческого поведения. Тем не менее, какими бы несовершенными ни были эти реализации, они могут совершенствоваться и моделировать функционирование человеческого мозга и человеческую психику все лучше и лучше. Кажется, что для такого усовершенствования нет принципиальных пределов. Если материализм или эпифеноменализм истинен, то в принципе возможно создать программную модель, которая будет имитировать человеческое поведение настолько хорошо, что мы не сможем отличить эту имитацию от поведения реального человека.

Навряд ли нам, людям, когда-то удастся создать такую модель. Но вообразите, что где-то на далекой планете Зет живут разумные существа, интеллектуальные способности которых намного превосходят наши, человеческие. Из какого-то наблюдательного пункта они изучают поведение людей и разрабатывают соответствующие компьютерные модели. Вообразите, что Вы – ученый, работающий над проблемами искусственного интеллекта. В одно прекрасное утро зетианский космический корабль забрал Вас на эту планету, и вот зетиане показывают Вам свои выдающиеся научные достижения. Особенно они гордятся своей новой компьютерной моделью человеческой психики. На экране монитора Вы видите как-бы кинофильм, в котором человек во вполне обычных ситуациях ведет себя вполне обычным образом. Но Вам объясняют, что это – не кинофильм, а программа, организованная по описанному выше принципу. Вам объясняют, что Вы можете изменять память и черты характера виртуального человека, загружая разные шаблоны. Вы можете манипулировать его окружением многими различными способами; можете ставить человека, которого вы видите на мониторе, в различные жизненные ситуации и наблюдать, как он будет себя вести. Например, Вы можете поставить этому человеку подножку, и посмотреть, как он отреагирует, если упадет. Вы увидите выражение боли на его лице; возможно, вы услышите ругань “Черт!” или стон (к компьютеру подключен динамик). Вы можете через микрофон обратиться к человеку и увидеть, как он придет в изумление или испугается, услышав это обращение и не увидев никого...

Поведение человека, которое Вы видите на мониторе, выглядит вполне естественным. Но будете ли Вы считать (зная, как это сделано), что в компьютере действительно есть человеческая личность, которая чувствует боль, удивление, страх, действительно понимает обращенные к ней слова? Вопрос не о том, настоящий ли это человек в смысле настоящести его тела (понятно, что компьютерное изображение человеческого тела и человеческое тело – эти совсем разные вещи). Вопрос о том, имеете ли Вы дело с настоящим сознанием, настоящим человеческим Я, которое действительно чувствует, желает, мыслит. Будете  ли Вы считать, что в момент запуска программы возникает, начинает существовать новое человеческое Я, и что оно прекращает свое существование (умирает) в момент остановки программы? Навряд ли. Скорее, Вы будете считать, что это невероятно хорошая имитация, но не настоящее человеческое Я.

Между прочим, зетиане рассказали Вам, что реально работает не один компьютер, а система из трех компьютеров, которые обмениваются данными через специальный “интерфейс” (упрощенно, можете вообразить это как большое количество проводов (волокон), по которым сигналы передаются с одного компьютера на другой): на одном из них работает модель внешней среды (программа “Внешняя среда”),  включающая в себя и внешние очертания тела, которое вы видите на мониторе, на втором – модель тела (кроме мозга), на третьем – модель мозга с памятью. Зетиани упомянули, что это разделение имеет значение для дальнейшей разработки их проекта.

Подпись: ПамятьПодпись: Мозг

Прошло пять лет. Вас снова забрали на планету Зет. На этот раз Вам не показывали компьютеров. Но Вы имели возможность познакомиться с новым чудом зетианской техники – роботом Роби. Роби по поведению очень похож на человека. Он общается с Вами как разумное существо, которое Вас вполне понимает; он говорит, что ощущает боль, радость, грусть, голод. Правда, поскольку он сделан из металла и пластмассы, и внутренние структуры его тела отличаются от человеческих, то и внешние проявления его “ощущений” несколько отличаются. Так, он не “ощущает” боли в некоторых из тех ситуаций, в которых ее ощущаете Вы, поскольку они не причиняют повреждения и не несут угрозы его телу. Но если его ударить кувалдой по руке он закричит как-будто от боли и побежит “лечиться” в ремонтную мастерскую. “Голод” для него – это когда истощается электроэнергия, и он “питается”, вставив пальцы в розетку...

Как зетианам удалось создать такое чудо? Они объяснили, что принцип – тот же, что и с виртуальными людьми, которых Вы видели прошлый раз. Только внешняя среда и тело, кроме мозга, на этот раз реальные. Пока что тело не человеческое, а искусственное; но его взаимодействия с внешней средой и “мозгом” осуществляются по тем же принципам, что и у человека (и по тем же, что и в виртуальной версии прошлого раза). А вот “мозг” – это компьютер (Комп-3), помещенный в голову робота, на котором работает программа “Мозг”, несколько модифицированная по сравнению с прошлым разом − приспособленная к особенностям телесной организации робота (в частности, несколько изменены подпрограммы “Боль” и “Голод”).

Рассмотрим вопрос: действительно ли этот робот ощущает боль, удивление, страх, действительно ли он понимает обращенные к нему слова? Есть ли у него настоящее сознание, настоящее Я, которое действительно чувствует, желает, мыслит. Вы знаете, что его “мозг”, это, по-сути, такой же самый компьютер с такой же самой (несущественно модифицированной) программой, как и в случае виртуального человека которого вы видели на мониторе компьютера в прошлый раз. Очевидно, что если тот виртуальный человек не имел настоящего Я, действительно не чувствовал и не понимал, а был лишь невероятно хорошей имитацией Я, чувствования и понимания, то в случае робота ситуация такая же самая. Это – знакомый нам зомби, который ведет себя так, как будто ощущает и понимает, но на самом деле не имеет никаких субъективных переживаний и понимания, а лишь очень хорошо их имитирует.

Прошло еще пять лет. Вы снова на планете Зет. На этот раз Вам не показывают ни компьютеров, ни роботов, – никакой новой техники. Вас познакомили с женщиной с Земли по имени Мэри, которая является известным ученым-нейрофизиком, уже пять лет находится на планете Зет и принимает участие в зетианских научных экспериментах. Вы мило с нею пообщались о наших земных делах и об зетианской науке. Но, к сожалению, во всем том, что она рассказала о своем участии в зетианских экспериментах, Вы не нашли ничего действительно нового, важного и интересного. В конце концов, проторчав на Зет неделю и так и не увидев никаких новых чудес техники, Вы разочарованно обратились к зетианам: “Зачем вы меня сюда привезли?!” Зетиане самодовольно похихикали и рассказали Вам историю Мэри.

Оказывается, Мэри сама не знает главного о тех экспериментах, в которых она принимала участие. “Главное” – этот удивительно удачный эксперимент по пересадке человеку мозга – искусственного вместо органического. Искусственный мозг – это тот самый компьютер, на котором работает программа “Мозг”. Зетианам удалось создать очень компактную версию такого компьютера, – по размерам значительно меньшую, чем настоящий человеческий мозг. Им удалось создать также микроскопические “переходники”, которые соединяют нервные окончания (обычно соединенные с нейронами мозга) с искусственным мозгом и осуществляют нужные преобразования сигналов. Им также удалось создать микроскопические трансформаторы энергии, которые превращают ту энергию, которая поступает в человеческий мозг, в электроэнергию, на которой работает компьютер. Короче говоря, все оборудование, необходимое для замены органического мозга на искусственный, с такими размерами, что все это действительно вмещается на месте органического мозга. Им удалось также считать всю память человека и записать ее в компьютерную память искусственного мозга. И первая же операция дала прекрасный результат. Человек, над которым ее осуществили, имеет такие же воспоминания, привычки, характер, его умственные способности даже немножко улучшились (зетиане сделали большой резерв памяти и некоторые другие усовершенствования). В прошлом году он летал на Землю, общался с родственниками, друзьями. Никто, даже родная иметь, не заподозрили, что с ним что-то произошло. Этот человек – Мэри. Операцию сделали ночью во время сна; сама Мэри об этом не знает и ни о чем не догадывается.

– Не буду от Вас скрывать, – сказал зетианин, – на этот раз мы привезли Вас не для того, чтобы похвастаться своими новыми научными достижениями. Мы решили сделать еще одну пересадку компьютерного мозга человеку, и избрали Вас для этой почетной миссии. Не бойтесь, Вы даже ничего не почувствуете, просто заснете и проснетесь с другим мозгом. Воспоминания, привычки, характер, – все останется как и раньше. Интеллектуальные способности станут даже лучше. Гарантия – 100%.

– Но же это убийство! Если все, что Вы сказали, правда, то Мэри уже нет, а есть лишь ее очень точная зомби-имитация. Я отказываюсь.

– Никаких “но”. Хватит с нас этих дурацких земных разговоров о субъективности, “я” и т.п. Казалось бы, образованный человек, ученый, а верит в такую ерунду! Вы бы еще душу и Бога сюда приплели. А Вашего согласия никто не спрашивает. Научный прогресс превыше всего.

******

В этой перспективе, рассмотрим взгляды двух известных современных философов, которых можно отнести к направлению эмерджентизма – Джона Сëрла и Дэвида Чалмерса. Эмерджентизм – это теория о том, что сознание возникает (emerges), когда человек рождается, (или немного раньше, в утробе) и исчезает-уничтожается (превращается в ничто), когда он умирает. Оно не тождественно с физическими состояниями и процессами, которые его порождают и определяют его состояния, а есть нечто новое, качественно отличное от них. Общая слабость этой теории состоит в том, что поскольку сознание не образуется из чего-то уже существующего, а возникает, то оно оказывается какой-то очень странной вещью, которая возникает в буквальном смысле из ничего и превращается в ничто. Некоторые сторонники этой теории (в частности, Дж.Сëрл) считают, что эмерджентные качества – что-то обычное в природе. Вопреки этому, Д.Чалмерс доказывает, что, насколько возможно судить из того, что мы знаем о природе, сознание уникально: в природе нет ничего другого действительно эмерджентного (по отношению к микрофизическому базису).[19]

Какие же условия отвечают за возникновение сознание? Чалмерс и Сëрл представляют две основные альтернативные версии, которые можно назвать функционалистской и субстратной.

Чалмерс в работе “Сознательная психика” отстаивает мысль о том, что “сознание есть "организационный инвариант": то есть, что любая система с правильной функциональной организацией будет иметь один и тот же сознательный опыт, независимо от того, из чего она сделана.”[20]

Это означает, что виртуальные люди из компьютерной программы зетиан (если она достаточно точно имитирует все важные функции мозга человека) имеют полноценное человеческое Я, сознание, субъективно переживают и осознают. Запуская программу, Вы даете жизнь новому человеку, прекращая ее работу, Вы убиваете человека. Правда, кажется, что Вы всегда можете его воскресить, запустив программу. Но здесь возникают проблемы. Вот Вы дали жизнь виртуальному человеку по имени “Джон”. Когда Вам надоело с ним забавляться, Вы сохранили его память и закрыли программу, тем самым убив Джона. На следующий день Вы решили воскресить Джона: включили компьютер, избрали нужную базу памяти, которая хранила память Джона, и запустили программу. Но случайно Вы нажали кнопку запуска программы дважды. И вот на компьютере открылось две копии программы, в каждой из которых – свой собственный Джон. Есть два Джона, с одинаковыми воспоминаниями и характером. Или кнопку, которая запускает программу, заело и Джоны начали плодиться один за другим. Кто из них – тот Джон, которого Вы вчера убили? Или ни один из них не является тем Джоном, а все они являются новыми людьми? Джон, которого Вы вчера убили, умер навсегда. Вы – убийца Джона. А если Вы позакрываете эти программы, то станете серийным убийцей.

Если предположить, что основополагающая идея программы “сильного искусственного интеллекта” (strong Artificial Intelligence) –что компьютерные модели могут не только имитировать, но и реализовать сознание – является истинной, то работа по реализации этой программы должна быть запрещена!

Другой интересный вариант (предложенный Недом Блоком): представим себе, что целая нация или жители целой планеты начнут имитировать-воспроизводить ту же структуру и динамику взаимодействий, которые имеют место в человеческом мозге (каждый человек играет роль одного нейрона).[21] По мнению Чалмерса, и в этой системе возникнет новое человеческое сознание (Я).[22]

На этом фоне более правдоподобной может показаться позиция Джона Сëрла, который считает, что сознание существует благодаря определенным свойствам того материала, из которого образуется мозг, вместе с его структурной организацией; что сознание не только нельзя создать на основе компьютерной функционалистской модели, но что оно даже не может образоваться на основе иного материала, чем тот, из которого образуется мозг (допустим, что структурную организацию и функциональную динамику мозга возможно реализовать не на углеводородной, а на какой-то иной химической основе, − хотя сомнительно, что это физически возможно).

Тем не менее, Сëрл слишком упрощает проблему, − по сути игнорирует то, что собственно и порождает психофизическую проблему. Сëрл утверждает следующее:

“Мозг причинно обусловливает определенные “ментальные” феномены вроде сознательных ментальных состояний, и эти состояния просто являются свойствами мозга высшего уровня. Сознание есть свойство мозга высшего уровня (или эмерджентное свойство) в совершенно безобидном смысле слов “высший уровень” и “эмерджентный”, подобном тому, как твердость является высшего уровня эмерджентным свойством молекул H20, когда они обладают решетчатой структурой (лед), а жидкое состояние сходным образом является высшего уровня емерджентным свойством молекул H20, когда они, грубо говоря, катаются вокруг друг друга (вода). Сознание есть ментальное и потому физическое свойство мозга в том смысле, в каком жидкое состояние есть свойство системы молекул.”[23]

Но ведь эта аналогия ложна! Действительно, мозг причинно обусловливает психические состояния, а вот молекулы воды и образуемая ими структура не обусловливают причинно твердость или жидкость. 'Твердость' или 'жидкость' – это понятия, которые описывают на макроуровне те же самые структурно-динамические свойства, которые на микроуровне описываются фразами "решетчатая структура молекул" и "молекулы, которые катаются вокруг друг друга". В первом случае имеем причинную связь двух разных вещей – физических состояний мозга и психических состояний сознания. Во втором – два разных описания одного и того же, − совокупности молекул H20. (Мы уже рассматривали в разделе 4 вопрос об основаниях для отождествления, в разделе 6 мы детальнее рассмотрим вопрос о существовании эмерджентных свойств.)

Джон Белофф так комментирует утверждения Сëрла о том, что сознание есть эмерджентное свойство мозга “подобно тому, как твердость и жидкий характер являются эмерджентными свойствами систем молекул”[24] :

“Эта аналогия ... сама себя разоблачает. B конце концов, у нас есть логически последовательная теория, которая связывает движение молекул с такими макросвойствами как твердость, жидкость, теплота и т.п.. ...не существует никакой мыслимой теории, которая связывала бы содержание  нашего личного феноменального опыта с теми процессами, которые возможно наблюдать в нашем мозге с применением соответствующей аппаратуры. Сëрл, тем не менее, настаивает на своем. Так, он пишет: "Тот факт, что психические структуры соответствуют на высшем уровне[25] нейронным свойствам, нисколько не преуменьшает их причинной действенности. Твердость клапана является причинно соответствующей на высшем уровне относительно его молекулярной структуры..." Опять таки, аналогия разваливается... Физическая химия может объяснить почему "твердость клапана является причинно соответствующей на высшем уровне относительно его молекулярной структуры"; не существует аналогичной теории, которая объясняла бы, почему опыт боли должен соответствовать на высшем уровне "микрособытиям в мозге." Эти микрособытия могли бы иметь место и в случае, если бы опыта боли не существовало. Короче говоря, Сëрл игнорирует отличие между высокоуровневыми свойствами, с которыми может справиться физикалистский анализ, и ...  субъективными переживаниями, чье существование мы должны признать, но которые явно не поддаются никакому подобному объяснению.”[26]

В случае с твердостью клапана в отношении с его молекулярной структурой Сëрл делает ту же самую ошибку, что и в случае с водой и молекулами H2O: он не различает причинную связь от тождественности, смешивает их под одним понятием – соответствия на высшем уровне (надсоответствия, супервентности).

 

Чтобы избавиться от этой – довольно обычной в философии сознания – путаницы, Девид Чалмерс предложил различать природное (причинное, каузальное) надсоответствие и логическое надсоответствие.

Логическое надсоответствие события (множества событий) A относительно множества событий B – это такое отношение, когда B (низший уровень) образуют A (высший уровень); B без A логически невозможно; нет логически возможных миров с B, но без A. Логическое надсоответствие означает тождественность, а не причинную связь. Это – случаи воды и молекул H2O, твердости клапана и его молекулярной структуры. Вообще, все материальные (физические в широком смысле) факты и свойства являются логически надсоответствующими относительно микрофизических фактов и свойств. Сознание (психика) не является таковым; именно поэтому оно не принадлежит к сфере физического (материального); и это означает, что материализм ложен.

Природное (причинное, каузальное) надсоответствие A относительно B – это такое отношение в действительном мире, что всегда, когда имеет место B, то имеет место и A; но нет логического надсоответствия; логически возможно B без A; логически возможны миры, в которых при наличии B отсутствует A. Природное (причинное) надсоответствие означает, что нет тождественности; есть причинное отношение, обусловленное законами природы, действующими в нашем мире: A не тождественно B; A и B – разные вещи (события); B не образует, а причинно вызывает A.

Если бы сознание было логически надсоответсвующим относительно мозга, то это означало бы, что материализм истинен. Но сознание не является логически надсоответсвующим относительно мозга. Чалмерс предполагает, что сознание является природно (причинно) надсоответствующим относительно мозга; это означало бы, что слабый дуализм (эпифеноменализм) истинен.

Я считаю намного более правдоподобным, что причинные отношения между сознанием и мозгом более сложны, двунаправлены; нет логического надсоответствия, а причинное надсоответствие неполно, так что сознание частично автономно, и есть причинно-следственные связи не только от мозга к сознанию, но и от сознания к мозгу. Если это так, то сильный дуализм (интеракционизм) истинен.

 

А вот еще одно любопытное высказывание Сëрла – об интенциональности: чем бы она ни была, она есть “так же каузально зависимой от специфической биохимии своего происхождения, как лактация, фотосинтез или любые другие биологические явления”.[27] Это очень напоминает знаменитое заявление материалиста ХІХ ст. Карла Вогта: “мозг вырабатывает мысли так же, как печень – желчь”. Упущен из виду лишь однин “пустячок”: мы можем взять биохимические продукты лактации, фотосинтеза или продуцирования желчи, поддать их химическому анализу, выяснить, из каких молекул и атомов они состоят. А как относительно химического анализа и состава интенциональности и мыслей? Процессы лактации, фотосинтеза, продуцирование желчи – как и любые физические (в широком смысле) процессы – это лишь большое множество физических движений, изменение взаимного расположения разных физических тел (атомов, ионов, электронов и т.д.) и образование ими новых структур. Но как бы мы ни группировали атомы и другие микрочастицы и как бы мы ни описывали их структуры, мы не получим сознания и интенциональности. Эти атомы и другие микрочастицы могли бы двигаться точно так же и образовывать такие же структуры без никакого сознания.

******

Интересно замечание Сëрла о том, что самой глубокой мотивацией материалиста является “ужас перед сознанием”[28] и, соответственно, желание избавиться от этого ужаса – вместе с самим сознанием. Это напоминает высказывание Т.Нагеля о “страхе перед религией, который оказывает большое и часто губительное влияние на современную интеллектуальную жизнь”[29] и высказывание К.Поппера о “страхе перед обскурантизмом (или обвинением в обскурантизме)” (религиозном), который порождает обскурантизм другого толка (материалистический)[30] . К сожалению, Сëрл разделяет другой подобный страх – страх перед дуализмом.

Это можно увидеть в его пренебрежительных высказываниях о философии сознания Декарта и его последователей-картезианцев. Сëрл многократно повторяет, что она себя очень сильно дискредитировала, но его критические высказывания о ней очень поверхностны. Вот, например: “…если мы рассматриваем физическое в картезианских терминах как res extensa[31], то будет устаревшим даже с точки зрения физики считать, что физическая реальность является физической в соответствии с этим определением. Со времён теории относительности мы стали размышлять, например, об электронах как о точках массы-энергии. Таким образом, в соответствии с картезианским определением 'физического' электроны не будут считаться физическими.”[32]

Такая критика выявляет нежелание продумать идеи Декарта (который жил в ХVII ст. и не знал ни о теории относительности, ни об электронах) немного дальше буквального прочтения – до той фундаментальной интуиции, которая лежит в их основе, – идеи о пространственности как определяющем свойстве материи (физического). Интуиция эта состоит в том, что существует простой и совершенно независимый от состояния развития физики ответ на вопрос “Что такое материя (физическое)?”: материя, физическая реальность определяется одним фундаментальным свойством – (взаимным) расположением тел в пространстве, которое изменяется со временем. Все остальные свойства материальных, физических объектов (тел и пространства) – это своего рода описательно-объяснительно-предсказательная “надстройка” к этому фундаментальному свойству: скорость, ускорение, типичные пространственные и пространственно-временные структуры, шаблоны движения, регулирующие эту динамику законы природы, соответствующие этим законам свойства физических тел (маcса, электрический заряд и т.п.) оказывать влияние на движения других тел и подвергаться двигательному влиянию с их стороны, закономерно распределенные и изменяющие со временем свойства пространства (поля, волны) закономерно влиять на движения тел. Все эти свойства и законы есть различные аспекты пространственных отношений между телами и их временнóй динамики, включая регулярности-закономерности, обнаруживаемые в этой динамике. Иными словами, они концептуально сводимы к пространственным отношениям и их изменениям во времени. Содержание понятия материи (физического) исчерпывается пространственно-временными отношениями.[33]

При таком толковании, физические вещи совсем не обязательно должны быть протяженными в буквальном смысле. Протяженность – характеристика физических вещей на макроуровне, которая образуется преимущественно (или даже полностью) расстояниями между микроскопическими частичками этих вещей. Сами эти частички вполне могут быть геометрическими точками, без протяженности.[34] Для того, чтобы они были физическими, достаточно того, что они расположены определенным образом в пространстве, пребывают в определенных пространственных отношениях друг к другу.

Таким образом, физическая реальность (материя) – это все, что концептуально сводимо к пространственно-временнóму (пространство, тела как сущности, определяемые положением в пространстве, пространственные отношения между ними, динамика изменений этих отношений (движение), законы и свойства, управляющие этой динамикой). Это можно рассматривать как усовершенствованный аналог Декартового res extensa. Усовершенствованным аналогом второго фундаментального понятия Декарта, res cogitans[35], является Я как психический (не только мыслящий, но и чувствующий, волящий и т.д.) субъект. Соответственно, первое главное положение неокартезианского дуализма (аналог Декартового “Cogito ergo sum[36]): “Психические Я – как "вещи", которые субъективно переживают, мыслят, осознают, желают и т.д. – существуют”. Второе главное положение: “Психические Я нематериальны (поскольку они не соответствуют понятию физической реальности, материи); человек есть соединение нематериального психического Я и материального физического тела”.

 

Приложение

Дэвид Чалмерс: сознание как "организационный инвариант"

Было бы, наверное, неучтиво отклонить точку зрения Чалмерса  (1996) лишь на основании того, что она интуитивно выглядит совершенно неприемлемой, не рассмотрев те аргументы, которые он приводит.

Прежде чем рассматривать эти аргументы один за другим, сделаю общее замечание, которое касается их всех:

1) вся аргументация Чалмерса основывается на принятии теории эпифеноменализма: сознание не влияет на физические процессы (будучи их нефизическим побочным продуктом);

2) Чалмерс употребляет такие слова как 'знание', 'мышление', 'вера', 'взгляды' не в обычном смысле, в котором они обозначают разные состояния и процессы сознания (сознательное знание, сознательное мышление, сознательная вера, сознательные взгляды), а для обозначения их функциональных соответствий – структур и процессов мозга, которые выполняют соответствующие функции.

1) и 2) взаимосвязаны. Обычно мы считаем, что наши сознательные знания, сознательное мышление, сознательная вера, сознательные взгляды влияют на наше поведение. Но с точки зрения эпифеноменализма это не так: все наше поведение полностью определяется физическими процессами в мозге. Отсюда (плюс влияние функционализма) – подмена смыслов таких слов как 'знание', 'мышление', 'вера', 'взгляды' и т.п.: вместо обычного смысла (определенные состояния и процессы сознания) они употребляются для обозначения тех физических состояний и процессов мозга, которые в соответствии с материалистическими и эпифеноменалистскими предположениями, выполняют те функции, которые мы обычно приписываем (сознательным) знанию, мышлению, вере, взглядам.

Заметим, что эту точку зрения принимает не только эпифеноменализм, но и все другие теории, которые принимают положение о каузальной закрытости физического. Обычно они идентифицируют себя с материализмом. Можно упомянуть о нескольких главных направлениях.

Радикальный материализм (элиминативизм и функционализм) отрицает, что в сознании есть что-то кроме функциональности − феноменальный (субъективный) аспект, который нуждается в объяснении. Отличия между элиминативизмом и функционализмом сугубо терминологические: элиминативизм прямо отрицает существование сознания в обычном (феноменальном) смысле слова; функционализм употребляет слово 'сознание' так, как будто оно не означает ничего иного, кроме соответствующих функций в организме.[37] Радикальный материализм “решает” проблему сознания, отказываясь его замечать. Можем назвать такой метод решения проблем методом страуса (в честь знаменитой привычки, которая приписывается этим животным: увидел опасность − сунул голову в песок – и опасности уже не видно). Их “решение” является столь же простым и неуязвимым, сколь абсурдным: нет сознания как субъективности – нет проблемы.

Несколько иная ситуация с так называемой теорией тождественности (идентичности), сторонники которой признают существование феноменальных свойств (состояний, процессов) и создаваемую этим проблему, но считают, что както-непонятно-как эти феноменальные свойства (состояния, процессы) и некоторые физические структуры и процессы в мозге есть одно и то же. По моему мнению, эта теория является по сути скрытым эпифеноменализмом, поскольку она 1) признает существование кроме собственно физического аспекта процессов в мозге (движений и взаимодействий разных частичек мозга) также и феноменальный аспект (сознание как субъективность); 2) признает положение о причинной закрытости физического, из чего следует, что существование феноменального аспекта (сознания как субъективности) ни на какие физические процессы никак не влияет. Это – эпифеноменализм, который не желает в этом признаться и поэтому держится за название 'материализм'.

Существует также теория, которая называется нейтральный монизм, которая, поскольку речь идет о возможности влияния сознания на физические процессы, не отличается от эпифеноменализма.

Поэтому вся последующая критика эпифеноменализма так же будет относиться к теории тождественности (идентичности) и нейтрального монизма.

Вообще, если принять постулат о каузальной закрытости физического (о том, что все физические процессы причинно обуславливаются лишь другими физическими процессами), то против аргументации Чалмерса тяжело что-то возразить. Единственная возможность ее последовательного опровержения – это отклонение постулата о каузальной закрытости физического, то есть принятие теории дуализма-интеракционизма – теории о том, что сознание, будучи чем-то нефизическим, влияет на физические процессы в мозге, и через них – на поведение человека.

Поэтому я предлагаю рассмотреть аргументацию Чалмерса, применив к ней своего рода инверсию в отношении к обозначенным выше двум ее определяющим чертам:

1) отклонение постулата о каузальной закрытости физического (а стедовательно, и эпифеноменализма);

2) разъяснение утверждений Чалмерса путем их “перевода” с функционалистского жаргона, в котором слова типа 'знание', 'мышление', 'вера', 'взгляды' означают процессы в мозге, которые выполняют определенные функции, на обычный язык, в котором эти слова обозначают сознательное знание, сознательное мышление, сознательную веру, сознательные взгляды.

Аргумент 1. Бритва Оккама

В соответствии с гипотезой Чалмерса “сознание есть "организационный инвариант": то есть, любая система с правильной функциональной организацией будет иметь один и тот же сознательный опыт, независимо от того, из чего она сделана.”[38]

Чтобы мы имели веские основания отдать предпочтение этой гипотезе сравнительно с альтернативными гипотезами, нужны факты, которые отвечали бы этой гипотезе и не отвечали бы альтернативным гипотезам. Но таких фактов нет.

Есть лишь один вид существ, о сознании которых мы знаем более или менее достоверно (или, точнее, имеем достаточно веские основания предполагать наличие у них сознания). Эти существа – люди. Мы также знаем, что состояния (процессы) сознания очень тесно связаны с функционированием мозга. Насколько нам известно (благодаря научным исследованиям), любые изменения в состояниях сознания сопровождаются соответствующими изменениями в состояниях разных участков мозга (с точки зрения эпифеноменализма, состояния мозга вызывают соответствующие состояния сознания; с точки зрения интеракционизма, соответствие является результатом двухстороннего взаимодействия). Но все это не дает оснований приписывать порождение сознания какому-то определенному свойству или комплексу свойств мозга. Мы не знаем, какие именно свойства мозга ответственны за сознание: это может быть любой комплекс свойств тех частей мозга, которые на данный момент невозможно хирургическим путем удалить или заменить на другие (функционально эквивалентные, но отличные по веществу, на основе которого они реализованы, или структурой), не вызвав этим значительной деградации поведения, контроль над которым мы обычно приписываем сознанию.

Возможно также (прежде всего, с точки зрения тех версий дуализма, которые традиционно называют субстанциональным дуализмом, – то есть с точки зрения теории души), что никакая физическая основа не является достаточной для существования сознания, хотя некоторая физическая основа является необходимой: без нее сознания не будет, но будет ли оно с ней, возможно, зависит от дополнительных обстоятельств, а именно – от предыстории. Вообразите, например, что наука и техника достигли такого уровня развития, что возможно создать точную копию тела (в том числе мозга) взрослого человека непосредственно из соответствующего количества химических веществ, не повторяя процесса биологического развития организма. В таком случае, даже если мы признаем, что полноценный мозг необходим для полноценного сознания (если мозг человека серьезно поврежден, его сознание деградирует или и совсем исчезает), из этого не следует, что наличие такого мозга породит соответствующее сознание. Возможно, что сознание появляется в человеке в момент рождения и дальше развивается параллельно с физическим развитием, так что если создать из соответствующего количества химических веществ точную физическую копию моего тела, то она не будет иметь сознания, или ее сознание будет в зачаточном состоянии.

Тем не менее, Чалмерс считает, что рационально считать признаком, ответственным за сознание и все специфические черты сознания конкретного человека, – признаком, необходимым и достаточным для существования именно такого сознания, каким оно есть у данного человека, – именно функциональную организацию. Любая физическая система, которая реализует все те функции, которые мы обычно приписываем сознанию, будет сопровождаться таким самым сознанием. Почему?

Первый аргумент Чалмерса в пользу этой гипотезы такой:

1) Между функциональной организацией мозга и сознанием имеет место соответствие.

2) Мы делаем вывод о наличии у других существ сознания именно по функционированию-поведению их организма, без никаких дополнительных свойств.

3) Следовательно, поскольку рационально приписывать сознание другим людям (наверное, мы считаем это рациональным!), то так же рационально приписывать сознание любой системе, которая является функционально эквивалентной человеческому мозгу.

4) Хотя и возможно, что кроме функциональной организации для сознания нужно еще что-то (какой-то “фактор Х”, дополнительные свойства), принятие такого предположения было бы нерациональным, поскольку это значило бы отдать предпочтение более сложной и неопределенной гипотезе (что это за дополнительные свойства? какие у нас есть основания считать их важными для сознания?) перед более простой и определенной. Это было бы “множением сущностей (entities) без потребности”, против чего следует применить “бритву Оккама”[39]. В самом деле, если бы на Землю прилетели инопланетяне, которые ведут себя как чувственные и разумные существа, мы считали бы, что они имеют сознание, даже если их мозг устроен иначе, чем человеческий.

Иными словами, если мы можем объяснить специфические состояния сознания несколькими разными способами, то нужно выбирать простейшее объяснение, и таким объяснением является предположение о существовании закона природы, который устанавливает соответствие между функциональными состояниями организма и состояниями сознания.

Возражение:

1) Аргумент Чалмерса основывается на ошибочной интерпретации оснований, на которых мы приписываем сознание другим людям (или инопланетянам) и которые делают такое приписывание рациональным. Мы рационально принимаем предположение о наличии у других существ сознания совсем не потому, что считаем, что соответствующее функционирование мозга порождает сознание (как полагает Чалмерс). Все с точностью до наоборот: мы рационально принимаем предположение о наличии у других существ сознания постольку, поскольку считаем, что сознание (при посредничестве мозга) причинно обуславливает поведение.

Мы приписываем сознание другим людям (или инопланетянам), опираясь на предположение о том,  что сознание играет важную причинную роль в отношении поведения, а следовательно, и в отношении функционирования мозга. Для человека единым веским основанием предполагать, что другие люди также имеют сознание, является то, что такое предположение необходимо для понимания их поведения (особенно, речевого поведения и поведения, направленного на реализацию определенных сознательных целей, планов и т.п.). И оно необходимо именно постольку, поскольку мы считаем, что сознание служит причиной соответствующего поведения. (Относительно других животных, наши основания приписывать им сознание значительно более слабые, но принцип тот же: мы приписываем сознание животным постольку, поскольку считаем, что причинами их поведения являются их субъективные ощущения, эмоции, желания и т.п.: эта собака скулит, так как ей больно, прыгает потому, что рада меня видеть и т.п.) Но это прямо противоречит гипотезе Чалмерса, которая не оставляет для сознания места в функционировании мозга и причинении поведения.

Действительно, то самое предположение (о влиянии сознания на функционирование мозга), которое делает рациональным приписывание сознания другим людям, означает, что если возможно создать чисто физическую систему, которая реализовывала бы все те функции, которые мы обычно приписываем сознанию (или сознанию и мозгу вместе), то нерационально приписывать такой системе сознание. (Более того, эта система в принципе не могла бы иметь такого же сознания, как у человека, − то есть сознания, которое играет важную роль в функционировании системы и причинении ее поведения.)

Предположение о существовании сознания у людей (или каких-то других существ) рационально постольку, поскольку предусматривает неполную функциональность мозга, участие сознания в его функционировании. Соответственно, в любой системе, в которой одними лишь физическими средствами реализована полная функциональность системы мозг-сознание, функции сознания будет выполнять что-то другое, а сознание окажется лишним. Это будет система с физической имитацией сознания, а не с сознанием. Именно поэтому предположение о том, что “искусственный интеллект” может порождать сознание, неправдоподобно и нерационально: мы знаем как он сделан, как реализованы все его функции; мы знаем, что он не нуждается в сознании, чтобы делать все то, что он делает; следовательно, нерационально приписывать ему сознание. Сознание здесь было бы “сущностью (entity) без потребности”, и поэтому против предположения о его наличии следует применить “бритву Оккама”.

 

Аргумент 2. Микрочипы вместо нейронов (угасающие субъективные переживания)

Второй аргумент Чалмерса – мысленный эксперимент с постепенной (один за одним) заменой нейронов мозга на электронные микрочипы.

Мы знаем, что мозг образуется большим количеством нейронов, объединенных в сложную сеть. Вообразите, что один из нейронов заменили на микрочип, который точно выполняет все его функции (передает другим нейронам точно такие самые сигналы, какие передавал бы настоящий нейрон). Если это так, то в поведении человека ничего не изменится. Затем точно так же заменяется следующий нейрон, следующий и следующий… Так как каждый микрочип точно выполняет все функции нейрона, которые он заменяет, то сколько  бы таких замен не было произведено (даже если будут заменены все нейроны!), поведение будет оставаться неизменным. А как относительно сознания?

С точки зрения Чалмерса (эпифеноменализм), есть три логические возможности.

1) Сознание не изменяется до определенного момента, и целиком исчезает в этот момент. Например, пока заменено меньше чем 50% нейронов, сознание остается без изменений, но после замены следующего очередного нейрона оно исчезает; человек превращается в феноменального зомби, который ничего субъективно не ощущает и не осознает, но ведет себя так, будто ощущает и осознает все точно так же, как и раньше (как человек с сознанием).

2) Сознание постепенно угасает, но это никак не отражается в поведении. Происходит постепенное изменение-преобразование человека с сознанием в феноменального зомби. Хотя это существо постепенно теряет сознание, оно ведет себя как будто ничего не случилось. Конечный результат (когда замещены все нейроны) – тот же, что и в случае возможности 1) – феноменальный зомби, поведение которого ничем не отличается от поведения человека с сознанием.

3) Сознание не изменяется. Даже после замещения всех нейронов микрочипами, мы имеем дело с тем самым человеком с сознанием, его сознание остается точно таким, каким оно было вначале.

По мнению Чалмерса, возможности 1) и 2) очень неправдоподобны.

Что касается возможности 1), то очень неправдоподобно, чтобы имел место такой радикальный разрыв постепенности, когда замещение лишь одного очередного (после 50%) нейрона приведет к “переключению” от полного сознания к отсутствию сознания.

 Относительно возможности 2), Чалмерс предлагает вообразить человека (допустим, его зовут Джон), у которого 50% нейронов замещено микрочипами. Если предположение 2) является истинным, то Джон будет приблизительно полусознательным (полубессознательным); но при этом он будет вести себя так, как будто он при полном сознании. Его ощущения будут невыразительными (угасшими на 50%), его сознательные мысли и понимание туманным, но он будет вести себя так, как будто они являются живыми и ясными.

Чалмерс пишет, что это означает, что Джон “систематически не имеет никакого контакта” с собственными субъективными переживаниями, не способен сформировать о них правильных суждений. А это, по мнению Чалмерса, очень маловероятно. Это совсем не согласовывается с нашим обычным способом мышления о человеческом сознании. Обычно мы считаем, что если человек ведет себя так, как будто он при полном сознании, то он действительно при полном сознании. Почему же мы должны применять другие стандарты к Джону? Кажется рациональным считать, что поскольку с его поведением все в порядке, то и с его сознанием также все в порядке. Итак, если замена нейронов микрочипами не изменяет (не повреждает) функциональности, мы имеем хорошие рациональные основания считать, что она не изменяет также и сознания.

Возражения:

Возможны несколько возражений. Я начну с наименее интересных.

1) Возможность внезапного исчезновения сознания в момент замены очередного нейрона на силиконовый микрочип не так уже и неправдоподобна (по крайней мере, в сравнении с не менее неправдоподобными предположениями, которые Чалмерс принимает взамен). Действительно, в природе есть немало разрывов постепенности (например, замерзание воды).

2) Чалмерс приводит свой мысленный эксперимент как аргумент против природной возможности (соответственно действующим законам природы) лишенного сознания функционального эквивалента мозга. То, что существует соответствующая логическая возможность, Чалмерс признает (собственно, на этом и основывается вся его аргументация в пользу дуализма – см. разделы 3 и 6). То есть, по мнению Чалмерса, хотя существование функционального эквивалента мозга без сознания логически возможно, у нас есть весомые основания считать, что в природе действуют психофизические законы, которые делают это невозможным. В частности, это якобы показывает мысленный эксперимент с постепенной заменой нейронов мозга на силиконовые микрочипы.

Но если речь идет о природной возможности, то и эксперимент не должен предполагать ничего, что является природно невозможным (даже если оно логически возможно). Между тем, наиболее правдоподобно, что функциональный эквивалент нейрона на какой-то другой химической основе, который возможно было бы встроить в сеть настоящих нейронов мозга так, чтобы он надлежащим образом с ними взаимодействовал, выполняя все функции нейрона, является природно невозможным.

3) Даже если бы это было природнео возможным, то интеграция (“встраивание”) в мозг других (функционально эквивалентных) элементов вместо нейронов возможна лишь в случае соответствующего “интерфейса” − надлежащей реализации всех функциональных связей с другими нейронами. А это природно возможно лишь на той самой межэлементной химической  и, возможно, полевой  (электромагнитные поля, возможно еще какие-то) основе.

Насколько известно современной науке, взаимодействие между нейронами осуществляется путем передачи определенных химических веществ. Соответственно, чтобы микрочип возможно была встроить в сеть нейронов, он должен обмениваться с нейронами такими же химическими веществами, которыми они обмениваются между собою. Очень малоправдоподобно, чтобы это было естественно возможным (это усиливает предыдущее возражение). Но даже если это естественно возможно, то возможно, что эта физическая реализация информационного обмена между нейронами (или квазинейронами-микрочипами) необходима для сознания. В таком случае, физической основой сознания является межэлементная субстратная основа, а не только функциональность.

Правда, это возражение возможно обойти, если предположить, что микрочипы способны идентифицировать, взаимодействуют ли они с нейронами или с другими микрочипами, и, в зависимости от этого, по разному обмениваться информацией: при взаимодействии с нейронами обмениваются с ними химическими веществами так, как нейрон с нейроном; а при взаимодействии с другими микрочипами обмениваются функционально эквивалентными сигналами каким-то другим способом. Но очень малоправдоподобно, что такие микрочипы природно возможны.

4) Мысленный эксперимент Чалмерса предусматривает не только функциональную эквивалентность, но и одну и ту же структурную реализацию – вплоть до уровня нейронов. Возможно, что лишь определенная структурная реализация порождает сознание.

Непонятно, как это соотносится с предположением Чалмерса. Напомню, как оно сформулировано: “сознание есть "организационный инвариант": то есть, любая система с правильной функциональной организацией будет иметь один и тот же сознательный опыт, независимо от того, из чего она сделана.”[40] Эту формулировку можно истолковать двумя разными способами, которые можно назвать функциональным и структурным, – в зависимости от того, как понимать словосочетание “правильная функциональная организация”. Возможны два варианта: 1) любая организация, которая обеспечивает реализацию тех же функций; 2) организация с такой же физической структурой (до уровня нейронов). Понятно, что это разные вещи. Одна и та же функциональность может, в принципе, быть реализована на основе разных структур. Но Чалмерс, к сожалению, смешивает эти разные смыслы. Мысленный эксперимент Чалмерса относится лишь к 2), а не к 1).

Но даже такая структурная гипотеза очень неправдоподобна, поскольку она означает, что (цитируя Чалмерса) “не имеет значения, реализована ли организация силиконовыми микрочипами, или населением Китая, или пивными банками или теннисными шариками. Если функциональная организация правильная, то это порождает сознательные субъективные переживания.”[41]

Рассмотрим, для примера, известный мысленный эксперимент Неда Блока, выдвинутый как аргумент против функционализма. Если нация китайцев (или, поскольку китайцев для этого не хватит, стомиллиардное население планеты Зет), начнет своими действиями структурно имитировать функционирование человеческого мозга (каждый китаец – вместо соответствующего нейрона), то от этого не возникнет новое человеческое сознание. Чалмерс считает, что возникнет.

Заметим, что структурная имитация не означает, что китайцы должны стоять друг у друга на головах, чтобы образовать соответствующую пространственную структуру. Тут имеет значение не пространственная, а информационная структура, – сеть каналов, по которым передаются соответстующие сигналы. Достаточно того, что каждый китаец будет

– периодически (с определенной четко определенной регулярностью, которая обеспечивала бы синхронизацию системы) получать от определенного количества других китайцев или из внешнего источника, который является имитацией нервной системы  вне мозга (это может быть центральный компьютер, на котором работает программа “нервная система”), определенные наборы чисел (информация на входе), которые репрезентуют соответствующие состояния нервных клеток или нейронов (чьи функциональные состояния имитируют те китайцы, которые передали соответствующий набор чисел),

– обрабатывать их по определенному алгоритму, формируя нужное количество наборов чисел (информация на выходе), которые репрезентируют состояния нейрона, за имитацию которого отвечает данный китаец,

– передавать эти наборы другим китайцам или (в случае функциональных состояний, которые служат сигналами для системы мышц) вводить эти числа в разные колонки таблицы компьютера, который передает информацию к центральному компьютеру, на котором работает программа “Тело” (или даже просто складывать записки с наборами чисел в разные ящички).

Так же, в принципе, возможна структурная имитация функционирования мозга на супермощном компьютере. Для этого память, с которой работает программа, должна содержать огромную базу данных с информацией об информационных состояниях всех “виртуальных нейронов”, и программа может оперативно просчитывать все информационно значимые взаимодействия между ними и с виртуальной нервной системой, обновляя базу данных и формируя сигналы для виртуальной системы мышц. Так что, рассмотренный нами раньше мысленный эксперимент с зетианами относится также и к теории Чалмерса.

 

Наиболее интересные и важные возражения отвечают стратегии, которую я обозначил вначале этого Приложения: возражение 5) касается постулата о причинной закрытости физического, а возражение 6) – функционалистской подмены смыслов слов.

5) Аргумент Чалмерса не учитывает самого очевидного: возможность того, что человек, который ведет себя так, будто пребывает при полном сознании, на самом деле является полусознательным или четвертьсознательным, неправдоподобна лишь постольку, поскольку мы предполагаем (как все мы делаем в нашем повседневном мышлении), что сознание служит причиной соответствующего поведения. Именно исходя из этого предположения мы приписываем другим людям полное сознание, и это же касается и Джона. Если же сознание влияет на поведение, то угасание сознания будет иметь следствием деградацию поведения. Так что вероятно, что постепенная замена нейронов на микрочипы будет иметь следствием постепенное угасание сознания и постепенную деградацию поведения.

Если имеет место взаимодействие между сознанием и мозгом, то функции нейронов не реализуются полностью через их физические взаимодействия с другими нейронами. Их функционирование также зависит от сознания, а их “функции” включают влияние на сознание. Соответственно, если нейроны заменять на какие-то элементы, которые точно реализуют все прямые физические взаимодействия с другими физическими элементами системы, но не будут взаимодействовать надлежащим образом с сознанием, то это приведет к нарушениям в функционировании психофизической системы сознания и нейронной сети. Следовательно, вероятно, что постепенная замена нейронов на микрочипы вызовет постепенную деградацию, как психическую, так и поведенческую, вплоть до момента, когда сознание совсем угаснет.

6) Кроме эпифеноменализма, в аргументации Чалмерса есть еще один серьезный изъян: функционалистский жаргон, в котором хорошо известные и понятные нам слова и предложения, в которые они входят, означают что-то совсем другое, чем то, как мы их понимаем исходя из смыслов “нормального” языка. Например, такие слова как 'мышление', 'вера', 'взгляд' и т.п. означают в нормальном языке определенные состояния или процессы сознания; вместе с тем, на функционалистском жаргоне, которым пользуется Чалмерс, они означают определенные поведенческие тенденции, а также процессы в мозге, ответственные за эти тенденции. (Далее для обозначения этих функционалистских заменителей мышления, веры, взглядов я буду употреблять слова 'ф-мышление', 'ф-вера', 'ф-взгляды' и т.п.) Отсюда – утверждение Чалмерса о том, что Джон “систематически не имеет никакого контакта” с собственными субъективными переживаниями, не способен сформировать о них правильных суждений (ф-суждений). Если перевести это на обычный язык, то получим совсем другое высказывание: поведение Джона (включительно с речевым поведением, которое мы – ошибочно – могли бы истолковать как суждение) систематически не отвечает его субъективным переживаниям и мыслям (не имеет никакого контакта с сознанием).

Если предположить истинность эпифеноменализма, то, употребляя слова в их обычном смысле, нам следовало бы описать ситуацию с Джоном следующим образом. Джон вовсе не был бы в состоянии “систематической потери контакта” с собственными субъективными переживаниями (не способным сформировать о них правильных суждений). Джон как субъект переживаний и осознания (Я Джона) был бы в полном контакте с самим собою (своими субъективными переживаниями, желаниями, мыслями − своим сознанием). Вместе с тем, тело Джона было бы в состоянии “систематической потери контакта” с Джоном как субъектом переживаний и осознания (сознанием Джона) − оно вело бы себя совершенно независимо от его субъективных переживаний, мыслей, желаний и т.п.

Можно было бы также сказать, что Джон вел бы себя так, как будто он “систематически не имеет никакого контакта” с собственными субъективными переживаниями (не способен сформировать о них правильных суждений), но на самом деле Джон имеет этот контакт. Но в таком описании есть существенный недостаток: имя 'Джон' употребляется в двух совсем разных смыслах: 1) тело Джона, когда речь идет о поведении и 2) Джон как субъект сознания (Я Джона), когда речь идет о субъективных переживаниях. В реальных жизненных ситуациях 1) и 2) всегда согласованы, поэтому как правило нет потребности для их четкого различения. Но в нашей мысленной ситуации с Джоном, когда этой согласованности нет, надо четко понимать, о чем именно идет речь – о теле Джона или о самом Джоне (Я Джона).

Если эпифеноменализм истинен, то ситуация с Джоном была бы следующей: сознание Джона притуплено и расстроено, но это никак не проявляется в его (его тела) поведении; если Джон осознает, что происходит с его сознанием, он также никак не может этого выявить в своем поведении (в частности, не может об этом сказать). Он (его тело) ведет себя так, будто Джон при полном сознании, будто он имеет выразительные переживания и ясные мысли, тогда как на самом деле его переживания и мысли вялые, неясные, расстроенные. Чалмерс (формулируя это на ф-жаргоне) делает замечание, что это очень неправдоподобно. И это действительно так, тем не менее Чалмерс совершенно неправильно истолковывает причину этого неправдоподобия. Настоящая причина – в теории эпифеноменализма, которой придерживается Чалмерс. Поскольку теория очень неправдоподобна, то таковы же и выводы, которые из нее следуют. В соответствии с теорией эпифеноменализма (то есть, с точки зрения Чалмерса) все, что делает наше тело (включая все речевые действия), оно делает само по себе, совершенно независимо от сознания; поэтому даже если бы Джон вообще не имел сознания, ничего не ощущал бы и не осознавал бы (в обычном, субъективном, а не функционалистском смысле), то он все равно вел бы себя и высказывался бы совершенно так же, как нормальный человек. Так же из теории эпифеноменализма логически следует и то, что если сознание Джона будет полуугасшим, то его поведение все равно останется таким же, как и при полном сознании.

Чтобы сделать более выразительными возражения 5) и 6), рассмотрим следующий фрагмент, в котором Чалмерс размышляет о систематическом разладе между, с одной стороны, поведением и высказываниями Джона и, с другой стороны, его сознанием: “Во всех случаях, с которыми мы знакомы, сознательные существа в целом способны формировать правильные суждения относительно их опыта при отсутствии отвлечения и иррациональности. Для чувственного, рационального существа, которое не страдает ни от какой функциональной патологии, систематическое отсутствие контакта с собственным опытом означало бы сильный разлад между сознанием и познанием. У нас мало оснований верить, что сознание является таким капризным явлением и хорошие основания полагать обратное.”[42]

Но ведь здесь всё перевернуто с ног на голову!

5) Начнем с фразы “во всех случаях, с которыми мы знакомы”. О каких случаях идет речь? Каждый из нас непосредственно знаком лишь со своим собственным сознанием, и если эпифеноменализм истинен (как считает Чалмерс), то есть сознание никак не влияет на поведение, то у каждого из нас нет никаких оснований делать какие-либо суждения о сознании других людей. Сознание других людей недоступно нам непосредственно (как доступно наше собственное сознание) и, в соответствии с теорией эпифеноменализма, никак не влияет на их поведение. Таким образом, никто из нас не имеет никаких свидетельств – ни прямых, ни косвенных – о сознании других людей. Каждый из нас знаком лишь с одним – своим собственным – случаем, относящимся к обсуждаемой проблеме. Понятно, что из одного-единственного случая нельзя делать обобщений. (Детальнее о проблеме других сознаний и эпифеноменализме см. раздел 10, Книга 2.)

5-6) То, что Чалмерс называет словами 'отвлечение', 'рациональность' / 'иррациональность', 'познание' и т.п. – это совсем не то, что мы обычно понимаем под этими словами (некоторые состояния, процессы сознания или их характеристики), а функционалистские заменители (состояния мозга, которые предположительно выполняют соответствующие функции) − ф-отвлечение, ф-рациональность/ф-иррациональность, ф-познание и т.п. И поскольку в соответствии с теорией, которой придерживается Чалмерс, (эпифеноменализмом) мозг функционировал бы точно так же, если бы вообще не существовало сознания (а следовательно, и отвлечения, рациональности/иррациональности, познания в обычном смысле, как эти слова понимают люди, не погруженные в теорию функционализма), то если бы теория эпифеноменализма была истинной, в случае Джона это “означало бы сильный разлад”, но не между сознанием и познанием (в обычном смысле слова 'познание'), а между сознанием и ф-познанием. Но даже и этот разлад следует не из ситуации Джона самой по себе, а лишь из наложения на эту ситуацию теории эпифеноменализма.

Если перевести описание ситуации Джона (в приведенной выше цитате) с ф-жаргона на обычный язык, то мы поймем, что

− Поскольку у Джона расстроенное сознание (отвлечение и иррациональность), то его (субъективные, сознательные) суждения даже относительно собственного опыта могут быть неадекватными; тем не менее в цитате речь идет совсем не об этом, а о ф-суждении – не о том, как Джон осознает свои переживания, а о его (его тела) речевом поведении.

Возможно и вероятно, что даже при таком расстроенном сознании (субъективные, сознательные) суждения Джона о его собственных состояниях сознания (субъективных переживаниях) в общем правильны и нет сильного разлада между сознанием (психическими состояниями) и его (сознательным) познанием. Есть лишь разлад между, с одной стороны, сознанием (включительно с суждениями и познанием) и, с другой стороны, поведением (включительно с высказываниями) и функциональными состояниями мозга Джона (ф-судженнями, ф-познанием и т.п.). И ответственна за этот (воображаемый, а не реальный) разлад исключительно теория эпифеноменализма. Если теория эпифеноменализма истинна, то в ситуации Джона этот разлад должен быть; если она ошибочна, то разлада не будет (расстройство сознания вызовет соответствующее расстройство поведения).

Дж.Сëрл выдвигал подобное возражение: в той ситуации, которую мы рассматриваем, Джон (сознательно) знал бы о своих субъективных переживаниях, но утратил бы контроль над своей (своего тела) внешним поведением (в том числе над высказываниями о субъективных переживаниях). Чалмерс отвечает, что этого не может быть, так как представления Джона о его субъективных переживаниях “должны отображаться в функционировании системы”[43]. Я с этим согласен, но тут необходима такая поправка: чтобы сознательные представления Джона отображались в функционировании системы, эпифеноменализм должен быть ложным; поскольку он говорит, что функционирование системы не зависит от сознания (в частности, от представлений).

У реального (неэпифеноменалистского) Джона замена нейронов на силиконовые микрочипы, скорее всего вызвала бы деградацию сознания и, как следствие, соответствующую деградацию функциональности и поведения в той мере, в которой они зависят от сознания.

Аргумент и возражение 3. Танцующие ощущения

Последний аргумент Чалмерса – с “танцующими ощущениями” (dancing qualia) цветов основывается на той же путанице, которая создается эпифеноменалистским предположением и ф-жаргоном.

Вообразите существо, у которого мозг с такой же функциональной организацией (структурой) как и мой мозг, но на другой (например, силиконовой) субстратной основе. Далее я буду называть его моим функциональным двойником. Вопрос: должно ли у моего функционального двойника быть сознание качественно точно такое же, как и у меня? возможно ли, чтобы у моего функционального двойника не было сознания или было сознание с качественно иными феноменальными состояниями (субъективными переживаниями), хотя и с той же структурой?

Чтобы лучше понять вопрос о возможности сознаний с качественно отличными субъективными переживаниями, но одинаковой структурой, обратимся к классическому примеру – мысленного эксперимента цветовой инверсии. Вообразите, что спектр цветовых ощущений у моего функционального двойника перевернут: вещи, которые вызывают у меня ощущение красного, у моего функционального двойника вызовут такое цветовое ощущение, как мое ощущение синего. Мы оба называем эти вещи красными, а ощущение, которое они вызовут, ощущением красного. Легко понять почему: мы оба научились употреблять названия цветов через их соотнесение с предметами (красный цвет – цвет розы или крови, голубой цвет – цвет неба и т.п.). Но, поскольку речь идет о качественном характере самого субъективного переживания (как это ощущается – видеть красное или синее), у моего функционального двойника ощущение красного такое, как мое ощущение синего, а ощущение синего – такое, как мое ощущение красного.

Чтобы понять это еще лучше, вообразите, что от рождения Вы носили на глазах пленку, которая осуществляет такую инверсию цветов – красного в синий и соответственно со всеми промежуточными цветами. Вы никогда в жизни не снимали эту пленку и даже не знаете о ее существовании; она органическая и растет вместе с глазами. Усваивая язык, Вы научились, что красное – это цвет розы, а голубое – цвет неба. И вот в одну ночь пленка разрушилась. Вы проснулись и видите странную картину: небо стало розовым, а розы – синими. Но все люди вокруг скажут, что Вы говорите ерунду: небо такое же голубое, а розы такие же красные, какими они были всегда. В самом деле, цвета неба и роз не изменились; это Ваши цветовые ощущения поменялись местами.

Возвращаемся ко мне и моему функциональному двойнику. Ощущения цветов у нас разные. Ощущение, которое у меня вызовут красные вещи является в моем смысле ощущением красного, а в его смысле (если бы он мог посмотреть на вещи, так сказать, моими глазами) ощущением синего. И наоборот, ощущение, которое у него вызовут красные вещи являются в моем смысле ощущением синего, а в его смысле – ощущением красного. Или, возможно, у него вообще нет ни цветовых, ни каких-либо иных субъективных ощущений, хотя он и ведет себя так, как будто все ощущает точно так же, как я, говорит о своих ощущениях и т.п. Возможно, он – феноменальный зомби, который ничего не ощущает и не осознает, хотя его поведенческие реакции в соответствующих ситуациях точно такие же, как и мои, а мозг, хотя и образован из другого материала, имеет такую же структуру и функционирует так же, как и мой мозг.

Между ощущением красного и синего (или ощущением красного и отсутствием какого-либо цветового ощущения) есть много переходных цветовых ощущений. Если поделить весь диапазон на 10 приблизительно равных частей, то отличие между каждыми двумя соседними цветовыми оттенками будет довольно хорошо заметным. Предположим, что ученые-нейрохирурги встроили в мой мозг силиконовый блок, идентичный 1/10 части от того участка силиконового мозга моего функционального двойника, который отвечает за цветовые восприятия. Этот блок может заменить 1/10 часть участка моего мозга, ответственного за цветовые ощущения, без какого-либо повреждения или влияния на его функционирование (ведь функционально они идентичны). Ученые-нейрохирурги сделали очень сложную и утонченную операцию: они сделали так, что с помощью специальной системы реле можно отключать 1/10 часть участка моего мозга, которая отвечает за цветовые ощущения, и включать вместо нее силиконовый блок, и наоборот. Время от времени реле переключается, что имеет следствием довольно хорошо ощутимые изменения в моих цветовых ощущениях (перемещение вдоль шкалы красное-синее или потускнение-возобновление яркости). Тем не менее, это никак не проявляется в моем поведении, ведь силиконовый блок и часть моего мозга, вместо которой он включается, функционально эквивалентны – все эти переключения ничего не изменяют в функционировании моего мозга и, соответственно, в контролируемом им поведении.

Чалмерс формулирует это так: “Мои ощущения переключаются из красного на синее, но я не замечаю никакого изменения.” Напомню, что высказывание “я не замечаю никакого изменения” на ф-жаргоне (которым пользуется Чалмерс) означает совсем не то, что в обычном языке; его следует перевести приблизительно так: “я (мое тело) веду себя так, как будто не замечаю никакого изменения”. Продолжаю цитировать Чалмерса: “Даже если мы будем переключать реле много раз и мои цветовые ощущения будут танцевать туда-сюда, я буду спокойно заниматься своими делами, не замечая ничего непривычного.”[44] Снова нужно переводить: “не замечать ничего непривычного” на ф-жаргоне означает то же, что в обычном языке “вести себя так, как будто не замечаешь ничего непривычного”.

На самом деле, я замечаю все эти странные события; вся моя проблема только в том, что в соответствии с абсурдной теорией эпифеноменализма, которой придерживается Чалмерс, я никак не могу этого проявить своим поведением. Какими бы странными ни казались мне все эти изменения цветовых ощущений, и как бы сильно я ни хотел выразить свое удивление, я не могу этого сделать. В соответствии с теорией эпифеноменализма, мои ощущения и мое осознание этих ощущений, мое удивление и мои желания никак не влияют на мое (моего тела) поведение: тело занимается своими делами и ему совершенно безразлично, что я (сознательно) ощущаю и замечаю; если бы я совсем ничего не ощущал и не замечал, то оно все равно занималось бы своими делами точно так же, как занимается когда я все нормально ощущаю и замечаю.

Вывод Чалмерса, с которым я полностью согласнен: “Таким образом, мы снова получили reductio ad absurdum[45] (доведение до абсурда). Ничего удивительного: если предпосылки (эпифеноменализм, функционалистские предположения, которые стоят за ф-жаргоном) абсурдны, то почему выводы должны быть лучше?


 



[1] Searle J. Minds, Brains and Programs.

[2] Если есть прямой ответ, то его можно найти без понимания – как комбинацию символов в тексте, которая близко совпадает с комбинацией символов в вопросе.

[3] Сëрл формулирует это как силлогизм:

1) компьютерные программы являются чисто синтаксическими,

3) синтаксис недостаточен для семантики,

2) сознание имеет семантику,

следовательно, выполнение программы недостаточно для сознания.

(Searle J. Minds, Brains and Science)

[4] Searle J. Minds, Brains and Programs. – P.145.

[5] Searle J. Minds, Brains and Programs. – P.144-145.

[6] cognitive sciences – буквально: науки о познании; речь идет о кибернетике (разработка формальных моделей и алгоритмов обработки информации, их программная реализация, проблемы “искусственного интеллекта”), когнитивной психологии и т.п. См. также примечание 9 к разделу 1 о когнитивной психологии.

[7] output – последовательность символов (точнее, определенная конфигурация электромагнитных состояний), которая генерируется компьютером в результате выполнения программы.

[8] то есть, как осмысленную информацию, информацию о чем-то

[9] Searle J. Minds, Brains and Programs. – P.146.

[10] what-is-it-like-ness: What is it like to be a bat? – Как оно (субъективно переживается) – быть летучей мышью?

[11] how-it-feels-ness: How it feels? – Как оно чувствуется?

[12] Ср.: Т.Нагель: “Даже проблемы интенциональности можуть показаться решаемыми, если не учитывать их субъективный аспект…” (Nagel T. Subjective and Objective. – p.201.)

[13] Chalmers D. The Conscious Mind. – p.326.

[14] Васильев В. Трудная проблема сознания. – c.88.

[15] Searle J. Minds, Brains, and Programs. – p.140

[16] Васильев В. Кока-кола и секрет Китайской комнаты. – С.89-90

[17] Сëрл, обсуждая “ответ робота”, также отмечал: “Первое, что следует заметить об ответе робота, это то, что он молча соглашается с тем, что познание есть нечто большее, чем манипуляция формальными символами, поскольку этот ответ добавляет множество каузальных отношений с внешним миром.” (Searle J. Minds, Brains, and Programs. – p.140) (Курсив мой)

[18] Правда, в действительности периферийные устройства могут быть программируемыми (или одноразово запрограммированными при производстве) и выполнять заложенные в них программы, однако это не необходимо, поскольку все те же программы может выполнять сам компьютер, так что на долю периферийных устройств можно оставить только каузальное взаимодействие.

[19] В разделе 6 мы детальнее рассмотрим этот вопрос и убедимся, что Чалмерс прав, с небольшим уточнением: в природе, кроме сознания и сферы его “продуктов”, которые образуют мир культуры, не существует ничего радикально эмерджентного, – такого, что его новизна имеет качественный, а не только количественный характер (что касается количественной новизны в природе, то ее существование под вопросом). Сознание и культура уникальны в том, что образуют сферы, которые радикально качественно несводимы к физическому (микрофизическому).

[20] Chalmers D. The Conscious Mind. – p.xv.

[21] Block N. Troubles with Functionalism

[22] Chalmers D. The Conscious Mind. – pp.252-253

[23] Сëрл Дж. Открывая сознание заново. – С.35.

[24] Сëрл Дж. Открывая сознание заново. – С.115.

[25] "соответствуют на высшему равные" – в оригинале – supervene – понятие, которое напрямую не переводится на русский язык. Глаголу supervene сооответсвтует существительное superventіon. Детальнее см. ниже и в следующем разделе.

[26] Beloff J. The Mind-Brain Problem. – pp.515-516

[27] Searle J. Minds, Brains and Programs. – p.147.

[28] в оригинале “a terror of consciousness” (The Rediscovery of the Mind. – p.55); в русском переводе А.Ф.Грязнова – “сильный страх перед сознанием” (Сëрл Дж. Открывая сознание заново. – С.69)

[29] Nagel T. The Last Word. − p.130.

[30] Поппер К. Язык и психофизическая проблема. − С.496.

[31] вещь протяжённая

[32] Сëрл Дж. Открывая сознание заново. − С.44.

[33] Ср.: Д.Чалмерс: “…за самим характером физического объяснения, оно объясняет лишь структуру и функции, при этом соответствующие структуры − это пространственно-временные структуры, а соответствующие функции − это каузальные роли в формировании поведения системы” (Chalmers D. Consciousness and Its Place in Nature. − p.104-105). Заметим, что поведение системы, в свою очередь, есть лишь комплексом пространственно-временных структур.

См. также цитату Т.Нагеля в примечании 6 к разделу 1.

Ховард Робинсон делает подобное замечание относительно физических тел: “мы остаемся с концепцией тела, которая делает его чисто пространственным и диспозициональным” (Robinson H. Matter and Sense. – p.113), где соответствующие диспозиции – пространственно-временные, диспозиции к определенной закономерной пространственной динамике. То же самое можно сказать и о других физических сущностях, таких как поля и волны.

[34] Возможно, наименьшие физические микрочастички следует рассматривать как особые стабильные точечные состояния пространства, которые могут объединяться в сложные организованные структуры от атомов до живых организмов.

[35] вещь мыслящая

[36] “Мыслю, значит существую.”

[37] Другими словами, как описывает эти направления Ховард Робинсон, функционализм (теория каузальности) "говорит, что феноменальних качеств не существует, но существуют ощущения, и они есть на самом деле состояния мозга с определенными причинными возможностями", а элиминативизм (теория исчезновения) "говорит, что не существует феноменальних качеств и ощущений, но есть взамен состояния мозга с определенными причинными возможностями" (Robinson H. Matter and Sense. – p.85).

[38] Chalmers D. The Conscious Mind. – p.xv.

[39] методологичесткое правило: не множить сущности (entities) без потребности; не объяснять с помощью большего то, что можно объяснить с помощью меньшего

[40] Chalmers D. The Conscious Mind. – p.xv.

[41] Chalmers D. The Conscious Mind. − р.249.

[42] Chalmers D. The Conscious Mind. − р.257

[43] Chalmers D. The Conscious Mind. − р.258.

[44] Chalmers D. The Conscious Mind. − р.268

[45] Chalmers D. The Conscious Mind. − р.269

[Содержание]

[Персональная страница Дмитрия Сепетого]