входрегистрация
философытеорииконцепциидиспутыновое времяматематикафизика
Поделиться статьей в социальных сетях:

Аргумент китайской комнаты

Ссылка на оригинал: Stanford Encyclopedia of Philosophy

Впервые опубликовано 19 марта 2004 года; содержательно переработано 9 апреля 2014 года.

Аргумент и мысленный эксперимент, сегодня известный как аргумент китайской комнаты, впервые был предложен в статье 1980 года американского философа Джона Сёрла (1932-) и стал одним из самых известных аргументов в современной философии. Сёрл представляет следующую картину: он один находится в комнате, где следует инструкциям компьютерной программы, фабрикующей ответы на подсовываемые под дверь таблички с китайскими иероглифами. Сёрл ничего не понимает по-китайски и тем не менее, следуя программе, предписывающей определенные манипуляции с символами и цифрами (так же, как это делает компьютер), он производит правильные строки китайских иероглифов, чем вводит в заблуждение людей, находящийся снаружи (заставляя думать, что в комнате есть кто-то, говорящий по-китайски). Ограниченный вывод из этого аргумента состоит в том, что программирование цифрового компьютера может создать видимость понимания языка, но не создает реального понимания.

Соответственно, «тест Тьюринга» неадекватен. Сёрл утверждает, что мысленный эксперимент подчеркивает следующий факт: компьютеры просто используют синтаксические правила для манипулирования строками символов, но не понимают значения или семантики.

Более широкий вывод из данного аргумента опровергает теорию, которая утверждает, что человеческое сознание является компьютероподобной вычислительной системой или системой обработки информации. Напротив, сознание должно быть результатом биологических процессов; компьютеры же могут в лучшем случае симулировать эти биологические процессы. Таким образом, аргумент имеет большое значение для семантики, философии языка и сознания (mind), теории сознания (consciousness), информатики и когнитивной науки в целом. Как следствие, этот аргумент вызвал множество критических реакций.

Обзор

Исследования в области искусственного интеллекта (ИИ) позволили создать компьютерные программы, способные победить чемпиона мира по шахматам и лучших людей-игроков в телевизионной викторине «Jeopardy». На основе ИИ также были выпущены программы, с которыми можно общаться на естественном языке, в том числе Siri производства Apple. Наш опыт показывает, что игра в шахматы или «Jeopardy», поддержание разговора суть такие действия, которые требуют понимания и интеллекта. Говорит ли способность компьютера участвовать в играх и поддерживать разговор о том, что компьютеры могут понимать и быть разумными?

Приведет ли дальнейшее развитие технологий к появлению таких цифровых компьютеров, которые будут полностью соответствовать человеческому интеллекту или даже превзойдут его? Алан Тьюринг (Turing 1950), один из первых теоретиков вычислительной техники, полагал, что да. Тьюринг предложил то, что сейчас известно под именем «теста Тьюринга»: если компьютер в онлайн-чате будет принят за человека, то мы должны будем признать, что он разумен. К концу 1970-х некоторые исследователи ИИ утверждали, что компьютеры уже понимают по меньшей мере некоторый естественный язык. В 1980 году философ из Калифорнийского университета в Беркли Джон Сёрл представил короткий и широко обсуждаемый аргумент, призванный окончательно доказать, что цифровые компьютеры не могут понимать язык или мыслить.

Сёрл утверждает, что хороший способ проверить теорию сознания, например, теорию, гласящую, что мы можем произвести понимание, сделав то-то и то-то, состоит в том, чтобы представить, каково было бы делать нечто, что, как утверждает данная теория, могло бы создать понимание. Сёрл (Searle 1999) кратко резюмировал аргумент китайской комнаты:

Представьте себе носителя английского языка, не знающего китайский, запертым в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программа). Представьте себе, что люди снаружи комнаты посылают другие китайские символы, которые ему неизвестны и которые являются вопросами на китайском языке (входные данные). Представьте далее, что, следуя инструкциям программы, человек в комнате может посылать им китайские символы, которые являются правильными ответами на посылаемые ему вопросы (вывод). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского, хотя он не понимает по-китайски ни слова.

Далее Сёрл утверждает:

«Суть аргумента состоит в следующем: если человек в комнате, применяя соответствующую программу для понимания китайского языка, посредством своих действий не научается понимать китайский, то ни один другой цифровой компьютер посредством исключительно лишь этих действий также не научается понимать китайский, поскольку ни у одного компьютера, компьютера как такового, нет ничего, чего не было бы у человека».

Тридцать лет спустя Сёрл описывает свой вывод через понятия осознания (consciousness) и интенциональности (см. статью intentionality):

В прошлом с помощью так называемого аргумента китайской комнаты я показал, что реализация компьютерной программы сама по себе недостаточна для производства сознания или интенциональности (Searle 1980). Вычисления определяются чисто формально или синтаксически, тогда как у сознания есть реальное ментальное или семантическое содержание, и мы не можем перейти от синтаксического к семантическому, имея только синтаксические операции и ничего больше. Выражаясь немного более техническим языком, понятие «та же самая реализованная программа» определяет класс эквивалентности, который устанавливается независимо от какой-либо конкретной физической реализации. Но, установленный таким образом, он неизбежно исключает специфические биологические способности мозга вызывать когнитивные процессы.

Система, например, я, не смогла бы добиться понимания китайского языка простым выполнением шагов компьютерной программы, которая симулировала бы поведение кого-то, кто говорит на китайском языке (2010: 17).

Переход Сёрла от темы машинного понимания к сознанию и интенциональности напрямую не обосновывается первоначальным аргументом 1980 года. Однако то, как он переописывает свой вывод, указывает на то, что его интерпретация значения и интенциональности предполагает наличие тесной связи между пониманием и сознанием. Те, кто не принимает данный подход (т.е. предполагающий связку понимание-сознание), могут полагать, что запуск программы способен создать понимание, не обязательно создавая сознание, а робот может иметь сознание полноценного существа, не обязательно понимая естественный язык.

Таким образом, Сёрл делает более широкие выводы из своего аргумента. Последний направлен на опровержение функционалистского подхода к понимающим сознаниям: согласно функционализму ментальные состояния определяются их каузальной ролью, а не вещами (нейронами, транзисторами), эти роли исполняющими. Этот аргумент особенно важен для одной из версий функционализма, известной как вычислительная теория сознания и рассматривающей сознание как систему обработки информации. Вследствие своего охвата, а также ясного и убедительного стиля изложения аргумент Китайской комнаты, вероятно, стал наиболее широко обсуждаемым философским аргументом в когнитивной науке среди тех, что появились после теста Тьюринга. К 1991 году информатик Пэт Хейс определил когнитивную науку как непрерывный исследовательский проект, опровергающий аргумент Сёрла. Когнитивный психолог Стивен Пинкер (1997) отметил, что к середине 1990-х годов было опубликовано более 100 статей о мыслительном эксперименте Сёрла, и что повсеместность его обсуждений в Интернете послужила для Пинкера убедительной причиной удалиться из всех интернет-форумов.

Интерес к аргументу не угас, а диапазон связей с аргументом китайской расширился. Поиск в Google Scholar по запросу «Searle Chinese Room», ограниченный периодом с 2010 по начало 2014 года, дал более 750 результатов, включая статьи, где прослеживаются связи между самыми разными аргументами и темами — от теории воплощенного познания до театра, разговорной психотерапии, постмодернистских представлений об истине и «нашем постчеловеческом будущем»*, а также обсуждения групповых или коллективных сознаний и обсуждения роли интуиции в философии. Столь широкий спектр дискуссий и обсуждений является данью простоте, ясности и огромной значимости аргумента китайской комнаты.

История вопроса

Мельница Лейбница

У аргумента Сёрла есть три важных предшественника. Первый из них — аргумент, изложенный философом и математиком Готфридом Лейбницем (1646–1716). Этот аргумент, часто называемый «Мельницей Лейбница», появляется в 17-ом разделе трактата Монадология. Как и аргумент Сёрла, аргумент Лейбница принимает форму мысленного эксперимента. Лейбниц просит нас представить физическую систему, машину, чье поведение заставляет нас предположить, что она мыслит и имеет опыт («восприятие»):

17. Вообще надобно признаться, что [восприятие] и все, что от него зависит, необъяснимо причинами механическими, т.е. с помощью фигур и движений. Если мы вообразим себе машину, устройство которой производит мысль, чувство и восприятия, то можно будет представить ее себе в увеличенном виде с сохранением тех же отношений, так что можно будет входить в нее, как в мельницу. Предположив это, мы при осмотре ее не найдем ничего внутри ее, кроме частей, толкающих одна другую, и никогда не найдем ничего такого, чем бы можно было объяснить восприятие. Итак, именно в простой субстанции, а не в сложной и не в машине нужно искать восприятия. Ничего иного и нельзя найти в простой субстанции, кроме этого, т.е. кроме восприятий и их изменений. И только в них одних могут состоять все внутренние действия простых субстанций. (Лейбниц Т1: 415-416).

Обратите внимание, что стратегия Лейбница заключается в противопоставлении внешнего поведения машины, которое может казаться продуктом осознанного мышления, и типа ее внутренней работы. Он указывает, что эти внутренние механические операции — всего лишь элементы, движущиеся от точки к точке, и, следовательно, среди них нет ничего, что обладало бы сознанием или могло бы объяснить мышление, чувство или восприятие. Для Лейбница физические состояния не достаточны для ментальных состояний и не являются для них определяющими.

Бумажная машина Тьюринга

Вторым предшественником аргумента китайской комнаты была идея бумажной машины — компьютера, реализуемого человеком. Данную идею предложил Алан Тьюринг, например, в статье «Машинерия интеллекта» (Intelligent Machinery 1948). Тьюринг пишет, что он написал программу для «бумажной машины» для игры в шахматы. Бумажная машина — это своего рода программа, последовательность простых шагов, наподобие компьютерной программы, но написанная на естественном языке (например, английском) и приводящаяся в действие человеком. Человеку-оператор бумажной шахматной машины не обязательно (при прочих равных) знать, как играть в шахматы. Оператор лишь следует инструкциям, предписывающим те или иные ходы на шахматной доске. Фактически, оператору даже не нужно знать, что он или она играет в шахматы: входные и выходные строки**, такие как «N-QB7», ничего не должны значить для оператора бумажной машины.

Тьюринг верил, что компьютеры вскоре смогут демонстрировать внешние признаки разумного поведения при ответе на заданные на английском вопросы и при ведении беседы. Тьюринг (1950) предложил то, что сейчас известно как тест Тьюринга: если компьютер сможет будет принят за человека в онлайн-чате, его следует считать разумным. К концу 1970-х годов, когда компьютеры стали быстрее и дешевле, некоторые из представителей растущего вокруг ИИ сообщества заявили, что их программы могут понимать английские предложения, используя базу данных справочной информации. Работа одного из них, исследователя Йельского университета Роджера Шэнка (Schank & Abelson, 1977), привлекла внимание Джона Сёрла (коллега Сёрла по Калифорнийскому университету в Беркли, Хьюберт Дрейфус, ранее критиковал заявления исследователей ИИ). Шэнк разработал технику, носящую название «концептуальная репрезентация», которая использовала «скрипты» для репрезентации концептуальных отношений (форма концептуальной семантики ролей). Аргумент Сёрла был первоначально представлен в качестве ответа на утверждение, что программы ИИ, подобные разработанной Шэнком, в буквальном смысле понимают предложения, на которые отвечают.

Китайская нация

Третий и более непосредственный предшественник аргумента китайской комнаты возник в ранних дискуссиях вокруг функционалистских теорий разума и познания. Функционалисты считают, что ментальные состояния определяются исполняемой ими каузальной ролью в рамках той или иной системы (точно так же, как дверной стопор определяется тем, что он делает, а не тем, из чего сделан). Критики функционализма быстро обратили провозглашенное достоинство множественной реализуемости*** против нее самой. В отличие от тип-типовых теорий идентичности****, функционализм позволял существам с иной физиологией иметь те же типы психических состояний, что и люди – например, боль. Однако было отмечено, что если инопланетяне могут реализовать функциональные свойства, составляющие ментальные состояния, то, вероятно, то же самое могут делать и системы, еще менее похожие на человеческий мозг. «Вычислительная» версия функционализма особенно уязвима перед этим аргументом, поскольку очень многие системы с простыми компонентами вычислительно эквивалентны друг другу (см., напр., Maudlin 1989, где приводится пример компьютера, построенного из ведер воды). Критики спрашивали, насколько правдоподобно предположение о том, что эти неорганические системы могут иметь ментальные состояния или чувствовать боль.

Даниэл Деннетт (1978) сообщает, что в 1974 году Лоуренс Дэвис провел коллоквиум в Массачусетском технологическом институте (MIT), на котором представил одну из таких неортодоксальных реализаций. Деннет резюмирует мысленный эксперимент Дэвиса следующим образом:

Пусть функционалистская теория боли (неважно, какая именно) будет воплощена на системе, компоновочные узлы которой подобны не С-волокнам и ретикулярным системам, но телефонным линиям и офисам, укомплектованным людьми. Возможно, это гигантский робот, контролируемый населяющей его армией людей. Когда функционально охарактеризованные условия для переживания боли, которые устанавливает данная теория, выполнены, мы должны сказать, что, если теория верна, робот испытывает боль. То есть настоящая боль, столь же реальная, как и наша, будет существовать в силу (возможно) беспристрастной и деловитой деятельности этих команд бюрократов, исполняющих свои прямые обязанности.

В работе «Проблемы функционализма», также опубликованной в 1978 году, Нед Блок воображает картину, где все население Китая выполняет функции нейронов в мозге. Этот сценарий впоследствии получил название «Китайская нация», или «Китайский тренажерный зал». Мы можем предположить, что каждому гражданину Китая будет предоставлен список телефонных номеров, и в заранее установленное время в день реализации назначенные «входящие» (input) граждане будут запускать процесс, вызванивая тех, кто находится в их списке вызовов. Когда зазвонит телефон любого из граждан, он или она позвонит тем, кто будет в его или ее списке, а те, в свою очередь, свяжутся с другими. По телефону не нужно будет обмениваться сообщениями; все, что требуется, так это паттерн звонков. Списки вызовов должны быть сконструированы таким образом, чтобы паттерны вызовов реализовывали те же паттерны активации, которые возникают между нейронами в чьем-то мозгу, когда этот человек находится в определенном ментальном состоянии, например, испытывает боль. Телефонные звонки играют ту же функциональную роль, что и активирующие друг друга нейроны. Блок интересовался прежде всего квалиа***** и, в частности, вопросом о том, насколько обоснованно было бы предположить, что население Китая коллективно испытывает боль при том, что ни один представитель населения ее не испытывает. Однако его мысленный эксперимент применим к любым ментальным состояниям и операциям, включая понимание языка.

Таким образом, предшествующий мысленный эксперимент Блока, как и построения Дэвиса и Деннетта, предлагает рассмотреть систему из многих людей, а не из одного человека. Основное внимание в них уделяется сознанию, но в той степени, в которой аргумент Сёрла также включает сознание, данный мысленный эксперимент тесно связан с экспериментом Сёрла.

Аргумент китайской комнаты

В 1980 году Джон Сёрл опубликовал статью «Сознание, мозг и программы» (Сёрл 1998) в журнале The Behavioral and Brain Sciences (BBS). В этой статье Сёрл излагает аргумент, а затем отвечает на несколько основных возражений, высказанных во время его предыдущих выступлений в различных университетских кампусах (см. следующий раздел). Кроме того, статья Сёрла в BBS была опубликована вместе с комментариями и критикой 27 исследователей-когнитивистов. После них следовали ответы Сёрла на возражения его критиков.В течение десятилетий после публикации аргумент китайской комнаты был предметом множества дискуссий. К 1984 году Сёрл представил аргумент китайской комнаты в книге «Сознание, мозг и наука» (Сёрл 1993). В январе 1990 года популярное периодическое издание Scientific American организовало дебаты для широкой научной аудитории. Сёрл включил аргумент китайской комнаты в свою статью «Разум мозга — компьютерная программа?» (Сёрл 1990), за которой следовала ответная статья «Может ли машина думать?», написанная философами Полом и Патрицией Черчленд. Вскоре после этого Сёрл опубликовал свою дискуссию об аргументе китайской комнаты с другим ведущим философом, Джерри Фодором (в Rosenthal (ed.) 1991).В центре аргумента китайской комнаты находится человеческая симуляция компьютера, подобная бумажной машине Тьюринга. Человек в китайской комнате следует английским инструкциям, которые предписывают определенные операции с китайскими символами, тогда как компьютер «следует» программе, написанной на компьютерном языке. Человек, следуя инструкциям, производит впечатление владеющего китайским языком, но тем самым нисколько не приближается к понимаю китайского. Поскольку компьютер делает лишь то же самое, что и человек — манипулирует символами исключительно на основе их синтаксиса, — то ни один компьютер, просто следуя программе, не может по-настоящему понимать китайский язык.

Этот ограниченный аргумент, основанный на сценарии «китайской комнаты» (КК), направлен против позиции, которую Сёрл называет «Сильный ИИ». Сильный ИИ — это представление о том, что соответствующим образом запрограммированные компьютеры (или сами программы) могут понимать естественный язык и фактически обладают другими ментальными способностями подобно людям, поведение которых они имитируют. Согласно «Сильному ИИ», эти компьютеры действительно играют в шахматы разумно, делают умные ходы или понимают язык. Напротив, «слабый ИИ» — гораздо более скромное утверждение о том, что компьютеры просто полезны в психологии, лингвистике и других областях: отчасти потому, что они могут симулировать ментальные способности. Но слабый ИИ не утверждает, что компьютеры на самом деле понимают или разумны. Аргумент китайской комнаты не направлен против слабого ИИ, также как и не претендует показать, что ни одна машина не может думать: Сёрл говорит, что мозги — это машины, а мозги думают. Аргумент направлен против мнения, что формальные вычисления на символах могут производить мысль.

Мы могли бы обобщить ограниченный аргумент, представив его в качестве reductio ad absurdum сильного ИИ. Это будет выглядеть так. Пусть L будет естественным языком, а «программа для L» — это программа для свободного общения на L. Вычислительная система — это любая система, человеческая или иная, которая способна запустить программу.

Если сильный ИИ верен, то существует программа для китайского языка — такая, что если какая-либо вычислительная система запускает данную программу, она тем самым начинает понимать китайский язык.

Я мог бы запустить программу для китайского, не понимая при этом китайский.Следовательно, сильный ИИ ложен.

Вторая посылка подкрепляется мысленным экспериментом китайской комнаты. Вывод из этого ограниченного аргумента заключается в том, что запуск программы не может наделить систему пониманием языка. Более широкий аргумент Сёрла включает утверждение о том, что мысленный эксперимент в более общем смысле показывает невозможность получения семантики (значения) из синтаксиса (формальное манипулирование символами). Все это и связанные с этим вопросы обсуждаются в разделе «Более общие философские проблемы».

Ответы на аргумент китайской комнаты

Критика ограниченного аргумента китайской комнаты против Сильного ИИ часто следовала трем основным линиям аргументации. Их можно разделить на три группы исходя из величины уступки, на которую они готовы пойти.

(1) Некоторые критики признают, что находящийся в комнате человек не понимает китайский, но при этом полагают, что запуск программы тем не менее может создать нечто, что понимает китайский. Они оспаривают правомерность вывода, в соответствии с которым из посылки «человек в комнате не понимает китайский» следует заключение «программе не удалось создать понимание». Понимание может присутствовать у большей или же другой сущности. Это стратегия Ответа от Систем (ОС) и Ответа от Виртуального Сознания (ОВС). В них утверждается, что выходящая (output) из комнаты информация свидетельствует о том, что система понимает китайский, но не о том, что оператор понимает китайский. Таким образом, эти критики допускают, что человек в комнате не понимает китайский, но отвергают утверждение Сёрла, что понимание не возникает вообще и что компьютационализм****** ложен.

(2) Другие критики соглашаются с утверждением Сёрла, что простое выполнение программы обработки естественного языка, как оно описано в сценарии КИ, не создает никакого понимания: пониманием не обладает ни человек, ни компьютерная система. Однако они считают, что изменение в компьютерной системе могло бы привести к пониманию. Вариантом такого изменения может быть компьютер, встроенный в роботизированное тело, взаимодействующее с физическим миром через датчики и двигатели («Ответ От Робота»), или это может быть система, которая тщательно имитирует работу всего мозга, нейрон за нейроном («Ответ От Симулятора Мозга»).

(3) Наконец, некоторые критики не уступают даже ограниченному возражению против ИИ. Они считают, что человек в первоначальном сценарии «Китайской комнаты», несмотря на заверения Сёрла в обратном, мог бы понимать китайский, или же что этот сценарий невозможен. К примеру, критики утверждают, что наша интуиция в таких случаях ненадежна. Другие считают, что все зависит от того, что подразумевается под «пониманием». Эти вопросы обсуждаются в разделе «Ответ От интуиции». Другие (напр., Sprevak 2007) возражают против предположения, что любая система (например, Сёрл в комнате) способна запустить любую компьютерную программу. Наконец, некоторые утверждают, что коль скоро было бы неразумно приписывать понимание исходя из поведения китайской комнаты, то его неразумно было бы приписывать и людям на основе аналогичных поведенческих черт (Сёрл называет эту линию аргументации «Ответом От Других Сознаний» (ОДС)). Возражение состоит в том, что мы должны быть готовы приписать понимание китайской комнате на основе наблюдаемого поведения — так же, как мы делаем с другими людьми (и некоторыми животными) и как бы мы поступили с внеземными пришельцами (или горящими кустами, или ангелами), которые говорили бы на нашем языке.

В дополнение к этим ответам, относящимся конкретно к сценарию китайской комнаты и ограниченному аргументу, который будет здесь обсуждаться, некоторые критики также и независимо друг от друга выступают против более общего утверждения Сёрла. Они считают, что семантику (то есть значение) можно получить из синтаксических операций с символами — включая ту операцию, что проделывает цифровой компьютер: этот вопрос обсуждается далее в разделе о синтаксисе и семантике.

Ответ от систем

В оригинальной статье 1980 года Сёрл выделил и обсудил несколько ответов на аргумент, с которыми он столкнулся в различных дискуссиях. В результате эти ранние ответы получили наибольшее внимание в последующих спорах. То, что Сёрл (1980) называет «возможно, самым распространенным ответом», — это «Ответ от систем» (ОС).

Сторонники ОС, который, по словам Сёрла, изначально разрабатывался в Йельском Университете, готовы признать, что человек в комнате не понимает китайский, однако, говорится далее, человек — это всего лишь часть, центральный процессор (ЦП) в более крупной системе. Большая система включает в себя огромную базу данных, содержащую промежуточные состояния памяти (блокноты) и инструкции — полную систему, необходимую для ответа на заданные по-китайски вопросы. Таким образом, ОС заключается в том, что, хотя человек, управляющий программой, не понимает китайский язык, система как целое его понимает.

Нед Блок был одним из первых, кто высказался в пользу ОС, наряду со многими другими, включая Джека Коупленда, Даниэла Деннетта, Джерри Фодора, Джона Хаугеланда, Рэя Курцвейла и Жоржа Рей. Рей (Ray 1986) говорит, что человек в комнате есть только центральный процессор системы. Курцвейл (Kurzweil 2002) говорит, что человек является просто исполнителем и как таковой не важен (вероятно, имеется ввиду, что свойства исполнителя не обязательно являются свойствами системы). Курцвейл руководствуется духом теста Тьюринга и считает, что если система явным образом демонстрирует способность понимать китайский язык, то «она действительно должна понимать китайский язык». Отсюда следует, что Сёрл противоречит самому себе, говоря, что «машина говорит по-китайски, но не понимает по-китайски».

Маргарет Боден (Boden 1988) поднимает дискуссию на более высокий уровень. «Вычислительная психология не приписывает мозгу способность видеть ростки бобов или понимать английский язык: такие интенциональные состояния являются свойствами людей, а не мозга» (244). «Если говорить кратко, то сёрловское описание псевдомозга робота (т.е. Сёрла-в-роботе) как понимающего английского языка содержит категориальную ошибку, сравнимую с трактовкой мозга как носителя разума, противоположного при этом его каузальной основе». Боден указывает, что оператор комнаты — сознательный агент, в то время как процессор в компьютере — нет. В сценарии китайской комнаты нас просят встать на точку зрения исполнителя, а потому неудивительно, что мы не видим общей картины.

Реакция Сёрла на ОС проста: в принципе, человек мог бы интериоризировать всю систему, помня все инструкции и базу данных и производя все вычисления в своей голове. Затем он мог бы выйти из комнаты и побродить по улице, возможно, даже разговаривая по-китайски. Однако он все равно не мог бы придать «какое-либо значение формальным символам». Человек теперь был бы всей системой, но все равно не понимал бы по-китайски. Например, он не знал бы значения китайского слова для гамбургера. Он все еще не мог бы получить семантику из синтаксиса. (cм. далее раздел «Синтаксис и семантика».)

В своей статье «Китайская комната с логической точки зрения» Джек Коупленд (Copeland 2002) рассматривает реакцию Сёрла на ОС и утверждает, что гомункулус в голове Сёрла способен понимать, даже если это не может делать сам оператор комнаты — так же, как модули в нашем сознании решают тензорные уравнения, позволяя нам ловить крикетные шары. Затем Коупленд переходит к рассмотрению сценария «китайского тренажерного зала» и, по-видимому, снова встает на сторону ОС: «… отдельные игроки [не] понимают китайский. Но из этого не следует, что симулятор как целое не понимает китайский язык. Ошибка, возникающая при переходе от части к целому, очевидна здесь еще больше, чем в первоначальной версии аргумента китайской комнаты». Коупленд также отрицает, что коннекционизм подразумевает наличие у комнаты способности имитировать мозг.

Джон Хаугеланд пишет (Haugeland 2002), что реакция Сёрла на ОС ошибочна: «… теперь он спрашивает, что было бы, если бы он в своем разуме сознательно реализовал базовые формальные структуры и операции, которых, согласно теории, достаточно для реализации другого разума». По словам Хаугеланда, его неспособность понять китайский не имеет значения: он всего лишь исполнитель. Понять бы смогла более крупная система реализации — то есть данное рассуждение путает уровни описания.

Шеффер (Shaffer 2009) исследует модальные аспекты логики АКК и утверждает, что близкие версии ОС предвосхищают основание (question-begging). Но, утверждает он, модализированная версия ОС работает успешно, поскольку существуют возможные миры, где понимание является эмерджентным свойством сложной синтаксической манипуляции. Работа Ньюта (Nute 2011) — это ответ Шефферу.

Стеван Харнад в двух своих статьях защищал аргумент Сёрла против критиков, выступавших с позиции ОС. В своей статье 1989 года Харнад пишет: «Сёрл формулирует проблему следующим образом: является ли разум компьютерной программой? Или, более конкретно, если компьютерная программа имитирует или симулирует такую нашу деятельность, которая, по-видимому, требует понимания (например, общение на языке), можно ли сказать, что сама программа, осуществляющая такую деятельность, понимает?» (Обратите внимание на конкретное утверждение: проблема заключается в том, понимает ли сама программа.) Харнад заключает: «На первый взгляд, [аргумент КК] выглядит верным. Это, безусловно, работает против самого распространенного возражения — “ответа от систем”… ». Похоже, Харнад, связывая понимание и состояния сознания, следует за Сёрлом: Харнад (2012) утверждает, что Сёрл показывает, что основная проблема сознательного «чувства» для своего решения требует сенсорных связей с реальным миром.

Ответ от виртуального сознания

В Ответе от виртуального сознания (ОВС), как и в Ответе от систем, признается, что оператор китайской комнаты не приобретает понимание китайского, всего лишь запуская бумажную машину. Однако в ОВС предполагается, что значение имеет отнюдь не это. Важно то, было ли создано понимание, а не то, является ли понимающим агентом именно оператор системы. В отличие от ОС, ОВС гласит, что работающая система может создавать новые виртуальные объекты, отличные как от системы в целом, так и от подсистем, таких как ЦП или оператор. В частности, работающая система может создать отдельного агента, который понимает китайский язык. Этот виртуальный агент будет отличаться как от оператора комнаты, так и от всей системы. Психологические черты, включая языковые способности, любого созданного искусственным интеллектом сознания будут полностью зависеть от программы и базы данных на китайском языке и не будут идентичны психологическим чертам и способностям процессора или оператора бумажной машины (такого, как Сёрл в сценарии китайской комнаты). Согласно ОВС, ошибка аргумента китайской комнаты заключается в том, что в нем предполагается, будто тезис сильного ИИ состоит в том, что «компьютер понимает китайский» или что «система понимает китайский». Ключевым вопросом для ИИ должен быть всего лишь вопрос о том, «создает ли работающий компьютер понимание китайского».

Знакомая многим модель виртуальных агентов — это персонажи компьютерных или видеоигр, а также персональные цифровые помощники, такие как Siri от Apple и Cortana от Microsoft. Эти персонажи обладают различными способностями и характерами и не идентичны системному оборудованию или программе, которая их создает. Одна работающая система может одновременно управлять двумя разными агентами или физическими роботами, один из которых говорит только на китайском, а другой — только на английском (или, иначе, обладают совершенно разными личностями, воспоминаниями и когнитивными способностями). Таким образом, ответ ВС предлагает провести различие между сознаниями и системами, которые их «реализуют».

Мински (Minsky 1980), Сломан и Кроучер (Sloman and Croucher 1980) предложили ответ ВС сразу же после появления аргумента китайской комнаты. В своей широко известной статье 1989 года «Вычисление и сознание» Тим Модлин рассматривает минимальные физические системы, которые могут реализовывать вычислительную систему, запускающую программу. Его рассуждение вращается вокруг воображаемой машины Олимпия — системы ведер, которая передает воду, реализуя тем самым машину Тьюринга.

Основная мишень Модлина — компьютационалистское утверждение о том, что такая машина может иметь феноменальное сознание. Однако в ходе своего рассуждения Модлин обращается к аргументу китайской комнаты. Модлин (цитируя Мински, Сломана и Краучера) указывает на ОВС, утверждая, что понимающий агент может отличаться от физической системы (414). Таким образом, «Сёрл не сделал ничего, что ниспровергло бы возможность одновременного существования непересекающихся ментальностей» (414–5).

Перлис (Perlis 1992), Чалмерс (1996) и Блок (Block 2002) также открыто поддержали те или иные разновидности ответа ВС, как это сделал и Ричард Хэнли в книге «Метафизика Звездного Пути» (1997). Пенроуз (2002) критикует эту стратегию, а Стеван Харнад пренебрежительно отвергает подобные высокопарные обращения к метафизике. Харнад защищал позицию Сёрла в «Виртуальном симпозиуме по виртуальному сознанию» (1992), выступая против Патрика Хейса и Дона Перлиса. Перлис выдвинул аргумент ВС, который, по его словам, выводится из позиции Модлина. Чалмерс (1996) отмечает, что оператор комнаты — это просто каузальный посредник, «демон», поэтому его состояния сознания не имеют отношения к свойствам системы как целого. Как и Модлин, Чалмерс поднимает вопросы личной идентичности: мы можем рассматривать Китайскую комнату как «две ментальные системы, реализованные в одном физическом пространстве. Организация, которая порождает опыт китайского языка, совершенно отличается от организации, которая порождает опыт демона [= оператора комнаты]» (326).

Коул (Cole 1991, 1994) разрабатывает ответ, в котором утверждает следующее: аргумент Сёрла требует, чтобы агентом понимания был сам компьютер или, помимо китайской комнаты, человек в комнате. Однако неспособность Сёрла понимать китайский язык в комнате не говорит о том, что понимание так и не было создано. Если мы расширим диалог в первоначальном сценарии КК, включив в него такие вопросы на китайском языке, как «Какой у тебя рост?», «Где ты живешь?», «Что ты ел на завтрак?», «Как ты относишься к Мао?» и т.д., сразу станет ясно, что ответы на китайском не являются ответами Сёрла. А поскольку Сёрл не является автором ответов, его убеждения и желания, воспоминания и черты личности никак не отражаются в них – в отличие от его усердности! – и не выполняют каузальную роль в производстве ответов на китайские вопросы. Следовательно, если при запуске программы было создано понимание китайского языка, то сознанием, понимающим китайский, будет не компьютер, также как оператор комнаты (в сценарии КК) не будет той личностью, которая понимает китайский. Личность, понимающая китайский, будет отлична от оператора комнаты, а ее верования и желания будут предоставлены программой и соответствующей базой данных. Таким образом, неспособность Сёрла понимать китайский язык во время работы в комнате не показывает, что понимание не создается.

Коул (Cole 1991) предлагает дополнительный аргумент в поддержку утверждения, что понимающее сознание не является ни сознанием оператора комнаты, ни сознанием системы, состоящей из оператора и программы: запуск надлежащим образом структурированной компьютерной программы может произвести ответы китайском языке, а также ответы на корейском. И все же ответы на китайском могут демонстрировать, по-видимому, совершенно иные знания и воспоминания, убеждения и желания, чем ответы на вопросы на корейском, — равно как и отрицание того, что отвечающий на китайском знает корейский, и наоборот. Таким образом, поведенческие черты программы будут свидетельствовать о наличии двух не идентичных друг другу сознаний (одно понимает только китайский, а другое — только корейский). Так как они могут иметь взаимоисключающие психологические свойства, они не могут быть идентичны друг другу и ipso facto не могут быть идентичны с сознанием находящегося в комнате агента. Аналогично, в видеоигре может иметься персонаж с одним набором когнитивных способностей (умный, понимающий по-китайски), а также другой персонаж с набором черт, несовместимых с чертами первого (глупый, английский моноглот). Эти противоречивые когнитивные свойства не могут быть свойствами системы XBOX, которая их реализует. Выводимое отсюда предположение будет состоять в том, что сознания, как правило, более абстрактны, чем реализующие их системы (см. «Сознание и тело» в разделе «Более общие философские проблемы»).

Вкратце, аргумент ВС заключается в следующем: поскольку сёрловское доказательство того, что понимание китайского языка не создается, состояло в том, что он не понимал бы китайский язык в комнате, аргумент КК не может опровергнуть иначе сформулированное утверждение сильного ИИ (настаивающее на возможности достижения понимания с помощью запрограммированного цифрового компьютера). По словам Модлина (Maudlin 1989), Сёрл не предложил убедительного ответа на это возражение.

Другие мыслители, однако, сумели ответить на аргумент ВС, например, Стиван Харнад и специалист по математической физике Роджер Пенроуз. Пенроуз в целом с пониманием относится к темам, которые поднимает Сёрл в связи с аргументом китайской комнаты, и выступает против ответа ВС. Пенроуз не верит, что вычислительные процессы могут объяснять сознание — как ввиду аргумента китайской комнаты, так и ввиду ограничений формальных систем, выявленных Куртом Гёделем в доказательстве неполноты. (У Пенроуза есть две книги об уме (mind) и сознании (consciousness); Чалмерс и другие авторы ответили на его обращения к Гёделю.) В своей статье 2002 года «Сознание, вычисления и китайская комната», где адресно рассматривается аргумент китайской комнаты, Пенроуз утверждает: китайский спортзал (вариация сценария, где комната расширяется до размеров Индии, в которой всю обработку данных осуществляют индийцы) демонстрирует крайнюю неправдоподобность утверждения о наличии «какого-то бестелесного “понимания”, связанного с выполнением этого алгоритма человеком, и чье присутствие при том никак не влияет на его собственное сознание» (230– 1). Пенроуз заключает, что аргумент китайской комнаты опровергает Сильный ИИ. Кристиан Кернбах (Kaernbach 2005) сообщает, что он подверг теорию виртуального сознания эмпирической проверке и получил отрицательный результат. 

Ответ от робота

Ответ от робота (ОР) признает правоту Сёрла в отношении сценария Китайской комнаты: последний показывает, что запертый в комнате компьютер не может понимать язык или знать значения слов. ОР чувствителен к проблеме знания значения китайского слова для гамбургера. Последнее, в свою очередь, является для Сёрла примером того, что оператор комнаты не знает. Представляется разумным утверждение, что мы знаем, что такое гамбургер, поскольку видели один и, возможно, даже приготовили, или попробовали, или, по крайней мере, слышали, как люди говорят о гамбургерах, и поняли, что они такое, связав с вещами, которые знаем благодаря видению, приготовлению и поеданию. Учитывая то, каким образом мы можем понять, чем является гамбургер, ОР предполагает нам поместить цифровой компьютер в корпус робота с датчиками (такими как видеокамеры и микрофоны) и добавить управляющие элементы (вроде колес для перемещения и рук, с помощью которых можно манипулировать вещами в мире). Такой робот — компьютер с телом — мог бы делать то, что делает ребенок, то есть учиться посредством наблюдения и деятельности. ОР гласит, что этот цифровой компьютер в теле робота, выпусти мы его из комнаты, мог бы придавать значения символам и действительно понимать естественный язык. Маргарет Боден, Тим Крэйн, Даниэл Деннетт, Джерри Фодор, Стеван Харнад, Ханс Моравек и Джордж были в числе тех, кто поддержал версию данного этого ответа в тот или иной момент. ОР по сути апеллирует к «широкому содержанию» или «внешней семантике». Таким образом, сторонники ОР могут согласиться с Сёрлом в том, что синтаксис и внутренние связи недостаточны для семантики, но в то же время утверждать, что подходящие каузальные связи с миром могут поставлять содержание для внутренних символов.

Сёрл не считает, что данный ответ на аргумент китайской комнаты сильнее ОС. Датчики всего лишь обеспечивают дополнительный ввод в компьютер, а это по-прежнему будет просто синтаксическим вводом. Мы можем в этом убедиться, если внесем параллельное изменение в сценарий китайской комнаты. Предположим, что человек в китайской комнате помимо проскальзывавших под дверь китайских иероглифов получает еще и поток двоичных единиц информации, которые появляются, к примеру, на бегущей строке в углу комнаты. В книге инструкций в качестве вводных данных добавлены схемы использования цифр из строки наряду с китайскими иероглифами. Человек не знает о том, что символы на такой строке представляют собой оцифрованный вывод видеокамеры (и, возможно, других датчиков). Сёрл утверждает, что дополнительные синтаксические вводы не сделают ничего, что позволило бы человеку связать значения с китайскими иероглифами. Это просто прибавит ему работы.

Джерри Фодор, Хилари Патнэм и Дэвид Льюис были главными архитекторами вычислительной теории сознания, попадающей под огонь более широкого аргумента Сёрла. В своем первоначальном ответе на статью Сёрла 1980 года Фодор допускает, что Сёрл определенно прав в том, что «инстанцирования такой же программы, которую инстанцирует мозг, самого по себе недостаточно для приобретения тех же пропозициональных установок, что характерны для организма, обладающего мозгом». Однако Фодор считает, что Сёрл не прав относительно ОР. Компьютер может иметь пропозициональные установки, если он находится в правильных каузальных связях с миром, но они не опосредованы сидящим в голове робота человеком. Мы не знаем, каковы правильные каузальные связи. Но Сёрл допускает ошибку, выводя из тезиса «маленький человек не является правильной каузальной связью» заключение, что никакая каузальная связь не будет успешной. Существует достаточно эмпирических доказательств того, что ментальные процессы включают в себя «манипулирование символами». Сёрл же не предлагает никакого альтернативного объяснения (это иногда называют аргументом Фодора «Единственного варианта» (Only Game in Town) для вычислительных подходов). С тех пор Фодор много писал о том, каковы должны быть связи между состоянием мозга и миром для того, чтобы состояние обладало интенциональными (репрезентативными) свойствами, подчеркивая в последнее время пределы вычислительного подхода, поскольку вычисления по своей природе локальны и, следовательно, не могут объяснить абдукцию*******. 

В своей более поздней статье «Инь и Ян в китайской комнате» (в Rosenthal 1991: 524–525) Фодор основательно пересматривает свою точку зрения 1980 года. Он дистанцируется от своей более ранней версии ОР и, вместо этого, утверждает, что «инстанцирование» следует определять так, чтобы символ оказался непосредственной причиной следствия — никаких мешающих парней в комнате не должно быть. Таким образом, Сёрл в комнате — не инстанцирование машины Тьюринга, и «мастер установки (setup) Сёрла не инстанцирует машину, которую инстанцирует мозг». Он приходит к выводу, что: «…мастер установки Сёрла не имеет отношения к утверждению, что сильное тождество мозгу говорящего по-китайски ipso facto достаточно для того, чтобы говорить по-китайски». Сёрл говорит об этом шаге Фодора так: «Из всего несметного количества критических отзывов на аргумент китайской комнаты вариант Фодора, пожалуй, является самым беспомощным. Он утверждает, что именно потому, что человек в китайской комнате намеревается выполнить шаги компьютерной программы, он не выполняет шаги компьютерной программы. Он не предлагает никаких аргументов в пользу этого невероятного утверждения» (в Rosenthal 1991: 525).

В статье 1986 года Джорж Рей отстаивал комбинацию Ответа от систем и Ответа от робота; он отмечал, что оригинального теста Тьюринга недостаточно для проверки разумности и понимания, а также идею о том, что изолированная система, которую Сёрл описывает в комнате, точно не является функционально эквивалентной настоящему носителю китайского языка, ощущающему мир и действующему в нем. Во втором, предпринятом в 2002 году, разборе аргумента КК под названием «Непонимание Сёрлом функционализма и сильного ИИ» Рей снова защищает функционализм от Сёрла, в особенности ту его форму, которую Рей называет «вычислительно-репрезентативной теорией мышления – ВРТМ». ВРТМ не стремится приписать мышление любой системе просто потому, что та проходит тест Тьюринга (например, китайской комнате). Точно также ВРТМ не привязана к той интерпретации понимания естественного языка, которая в берет за образец иностранный разговорник. Скорее, в фокусе внимания ВРТМ находится интенциональность, как естественная, так и искусственная (репрезентации в системе можно подвергнуть семантической оценке: они истинны или ложны и, следовательно, имеют свойство «быть о чем-либо» (aboutness)). Сёрл приписывает функционализму свойственную бихевиоризму черту представлять внутренние процессы как «черные ящики», однако функционализм также интересует то, как они проходят. Рей делает набросок «скромного сознания» — системы ВРТМ, которая обладает восприятием, способна делать дедуктивные и индуктивные выводы, принимать решения исходя из целей и представлений о свойствах мира, а также способна обрабатывать естественный язык путем преобразования в / из его исходных репрезентаций. Для объяснения поведения подобной системы нам понадобятся те же приписывания, которые необходимы для объяснения поведения обычного носителя китайского языка.

Тим Крэйн обсуждает аргумент китайской комнаты в своей книге 1991 года Механический разум. Он приводит аналогию светящейся комнаты, предложенную четой Черчлендов, но затем утверждает, что за то время, когда Сёрл был оператором комнаты, он узнал бы китайский язык: «… если бы Сёрл не только запомнил правила и данные, но и начал действовать в мире китайцев, вполне вероятно, что он вскоре понял бы, что означают эти символы» (127). (Рапапорт (Rapaport 2006) проводит аналогию между Хелен Келлер******** и китайской комнатой.) Похоже, что Крейн в конце приходит к версии ОР: «Аргумент Сёрла сам предвосхищает основание (begs the question), когда (по сути) отрицает центральный тезис ИИ о том, что мышление является формальной манипуляцией символами. Однако, несмотря на это, допущение Сёрла кажется мне правильным ... правильный ответ на аргумент Сёрла был бы таков: конечно, Сёрл в комнате или комната сама по себе не могут понять китайский язык. Но если вы позволите внешнему миру оказать некоторое влияние на комнату, смысл или “семантика”, вероятно, начнут обретать точку опоры. Но, безусловно, этот шаг подразумевает признание того, что мышление не может быть просто манипулированием символами» (129).

Маргарет Боден (Boden 1988) также утверждает: Сёрл ошибается, полагая, что программы представляют собой чистый синтаксис. Однако программы активизируют определенные машины: «Присущие любой компьютерной программе процедурные последствия дают ей точку опоры в семантике, где рассматриваемая семантика является не денотационной, а каузальной» (250). Таким образом, робот может обладать каузальной силой, которая позволила бы ему осуществлять референцию к гамбургеру.

Стиван Харнад также считает важными наши сенсорные и двигательные способности: «Кто мог бы сказать, что тест Тьюринга, будь то на китайском или на любом другом языке, может быть успешно пройден без операций, основанных на наших сенсорных, моторных и других более высоких когнитивных способностях? С чего начинается способность понимать китайский язык и где заканчиваются все наши прочие ментальные способности?». Харнад считает, что символические функции должны основываться на «роботоподобных» функциях, связывающих систему с миром. Он также полагает, что это идет вразрез с символическими интерпретациями ментального (какие предлагает Джерри Фодор) и, как можно предположить, с подходом Роджера Шэнка, который был исходной мишенью аргумента Сёрла. Харнад (Harnad 2012) утверждает, что аргумент КИ показывает, что даже роботу с символами из внешнего мира, все еще чего-то не хватает — не хватает чувства, такого как чувство понимания.

Ответ от симулятора мозга

Рассмотрим компьютер, который работает иначе, чем обычная программа ИИ с ее скриптами и операциями над строками символов, подобными предложениям. В Ответе от симулятора мозга (ОСМ) нас просят предположить, что программа имитирует реальную последовательность нервных импульсов, возникающих в мозгу носителя китайского языка в тот момент, когда этот человек понимает китайский – каждый нерв, каждую вспышку. Поскольку компьютер работает точно так же, как мозг носителя китайского языка, то, обрабатывая информацию таким же образом, он поймет китайский. Ответ, предложенный Полом и Патрицией Черчленд, следует в том же направлении, которое обсуждается далее.

В ответ на это возражение Сёрл утверждает, что это (т.е. способность компьютера имитировать последовательность нервных импульсов в мозгу человека, понимающего язык) не имеет значения. Он предлагает вариант сценария симулятора мозга: предположим, что в комнате у человека есть огромный набор клапанов и водопроводных труб, организованных в том же порядке, что и нейроны в мозгу человека, говорящего по-китайски. Теперь программа сообщает человеку, какие клапаны открывать в ответ на ввод. Сёрл утверждает: ясно, что в описываемой ситуации не было бы понимания китайского языка. (Тем не менее обратите внимание: данное утверждение больше не основывается на том, что сам Сёрл не будет понимать китайский язык. Кажется очевидным, что теперь он просто играет вспомогательную роль в каузальных операциях системы, и, соответственно, мы полагаемся на нашу лейбницианскую интуицию, что водопроводные сооружения не обладают пониманием (см. также Maudlin 1989).) Сёрл приходит к выводу, что симуляция мозговой активности не является чем-то реальным.

Однако, следуя Пилишину (Pylyshyn 1980), Коулу и Фолберу (Cole and Foelber 1984), Чалмерсу (1996), мы могли бы задаться вопросом о гибридных системах. Пилишин пишет:

Если бы все больше и больше клеток вашего мозга заменялись интегральными микросхемами, запрограммированными так, чтобы функция ввода-вывода каждого блока была идентична функции заменяемой клетки, вы, по всей вероятности, просто продолжили бы говорить так же, как делаете это сейчас, за исключением того, что, в конце концов, вы перестали бы придавать своей речи какой бы то ни было смысл. То, что мы, сторонние наблюдатели, воспринимали бы как слова, было бы для вас просто некими шумами, которые бы вас заставляли издавать встроенные электронные схемы. 

Эти мысленные эксперименты по киборгизации могут иметь значение также и для китайской комнаты. Предположим, у Отто есть заболевание нервной системы, которое приводит к выходу из строя одного из нейронов в его мозгу, но хирурги устанавливают рядом с его неработающим нейроном крошечный дистанционно управляемый искусственный нейрон — синрон. Этот нейрон контролирует находящийся в китайской комнате Джон Сёрл, причем без ведома их обоих. Крошечные провода соединяют искусственный нейрон с синапсами на клеточном теле поврежденного нейрона. Когда его искусственный нейрон стимулируется нейронами, которые соединяются посредством синапса с его поврежденным нейроном, в китайской комнате загорается свет. Затем Сёрл совершает манипуляции с некоторыми клапанами и переключателями в соответствии с командами программы. Посредством радиосвязи эти манипуляции заставляют искусственный нейрон Отто высвобождать нейротрансмиттеры из их крошечных искусственных пузырьков. Если запрограммированные действия Сёрла заставляют искусственный нейрон Отто вести себя так же, как когда-то вел себя его естественный нейрон, тогда поведение остальной части его нервной системы останется неизменным. Увы, болезнь Отто прогрессирует; все больше нейронов заменяется синронами, контролируемыми Сёрлом. Согласно данной гипотезе остальной мир не заметит разницы. Заметит ли ее Отто?

Под рубрикой «Комбинированный ответ» Сёрл также рассматривает систему с характеристиками всех трех предыдущих ответов — робота с цифровым компьютером, имитирующим мозг в черепной коробке таким образом, что система как целое в результате ведет себя неотличимо от человека. Поскольку нормальный ввод в мозг поступает от органов чувств, естественно предположить, что большинство сторонников ОСМ подразумевают такую ​комбинацию, как Симулятор Мозга, Робот и ОС. Некоторые (напр., Rey 1986) утверждают, что было бы вполне обоснованно приписать интенциональность такой системе как целому. Сёрл соглашается, что приписать такой системе-андроиду понимание было бы разумно, но только до тех пор, пока вы не знаете, как она работает. Как только вы узнаете правду — о том, что это компьютер, слепо манипулирующий символами на основе синтаксиса, а не значения, — вы бы перестали приписывать ему интенциональность.

(Можно предположить, что это было бы верно даже в случае, если бы это был ваш супруг, с которым вас связывает долгая совместная жизнь, «кремневую тайную» которого вы бы разоблачили. Некоторые научно-фантастические истории, включая эпизоды телесериала Рода Серлинга «Сумеречная зона», основываются на возможности такого сценария; Стивен Пинкер (Pinker 1997) упоминает один эпизод, где секрет андроида был известен с самого начала, но главный герой все же завязал с андроидом романтические отношения.) 

В свой десятый юбилей аргумент китайской комнаты был представлен в популярном научном журнале Scientific American. Оппозицию аргумента Сёрла в этом выпуске возглавили философы Пол и Патриция Черчленд. Черчленды соглашаются с Сёрлом, что Китайская комната не понимает китайский, но считают, что сам аргумент пользуется нашим незнанием когнитивных и семантических феноменов. Они приводят параллельный пример «Светящейся комнаты», в которой некто машет магнитом и утверждает, что отсутствие видимого света доказывает ошибочность электромагнитной теории Максвелла. Черчленды отстаивают представление о мозге как о коннекционистской системе, векторном преобразователе, а не о системе, управляющей символами в соответствии со структурно-чувствительными правилами. Система в китайской комнате использует неправильные вычислительные стратегии. Таким образом, они согласны с Сёрлом относительно традиционного ИИ, но, похоже, одобрили бы то, что Сёрл называет «ответом симулятора мозга», утверждая: как и в примере светящейся комнаты, наша интуиция терпит неудачу, когда дело доходит до такой сложной системы, и было бы ошибочно двигаться от части к целому: «… ни один нейрон в моем мозгу не понимает по-английски, хотя мой мозг в целом его понимает».

В своей книге 1991 года «Микропознание» Энди Кларк утверждает, что Сёрл прав в том, компьютер под управлением программы Шэнка ничего не знает о ресторанах, «по крайней мере, если под “знать” мы имеем в виду что-то вроде “понимать”». Однако Сёрл полагает, что его аргумент применим к любой вычислительной модели, в то время как Кларк, подобно Черчлендам, считает, что Сёрл ошибается относительно коннекционистских моделей. Таким образом, Кларк склоняется к ОСМ. Мозг мыслит в силу своих физических свойств. Какие физические свойства мозга важны? Кларк отвечает, что в мозге важны «изменчивые и гибкие подструктуры», которых нет в стандартных системах искусственного интеллекта. Но это не означает, что компьютационализм или функционализм ложны. Все зависит от того, на каком уровне вы выбираете функциональные единицы. Кларк защищает «микрофункционализм»: искать следует детализированное функциональное описание, например, уровень нейронной сети. Кларк с одобрением цитирует Уильяма Ликана в противовес возражению об «отсутствующих квалиа» Блока: да, отсутствующие квалиа возможны, если функциональные единицы сделать большими. Однако это не опровергает функционализм в целом. Соответственно, взгляды Кларка не отличаются от взглядов Черчлендов: он согласен с тем, что Сёрл прав относительно Шэнка и систем обработки на уровне символов, но полагает, что он тот ошибается относительно коннекционистских систем.

Рэй Курцвейл (Kurzweil 2002) также утверждает, что аргумент Сёрла можно исправить, показав, что человеческий мозг не способен понимать: мозг достигает результата, манипулируя концентрациями нейротрансмиттеров и другими механизмами, которые сами по себе бессмысленны. Критикуя реакцию Сёрла на ОСМ, Курцвейл говорит: «Так что, если мы увеличим китайскую комнату Сёрла, сделав ее настолько большой “комнатой”, насколько требуется, кто скажет, что вся система из ста триллионов людей (моделирующих китайский мозг, знающий китайский язык) не является сознательной? Конечно, было бы правильно говорить, что такая система знает китайский язык. И мы не можем сказать, что она более не обладает сознанием — не в меньшей степени, чем мы могли бы сказать это о любом другом процессе. Мы не можем знать субъективный опыт другого существа…»

Ответ от других сознаний

С предыдущим ответом связан Ответом от других сознаний (ОДС): «Откуда вы знаете, что другие люди понимают китайский или какой бы то ни было другой язык? Только благодаря их поведению. Сегодня компьютер может пройти поведенческие тесты так же хорошо, как и они (в общем и целом), поэтому, если вы собираетесь приписывать познание другим людям, вы должны, следуя данному принципу, также приписывать его компьютерам»

Ответ Сёрла (1980) на это был очень краток:

Обсуждаемая нами проблема состоит не в том, откуда я знаю, что у других людей имеются когнитивные состояния, а в том, что именно я приписываю им, когда приписываю когнитивные состояния. Суть моего аргумента в том, что когнитивные состояния не могут быть всего лишь вычислительными процессами и их выходом (output), ибо вычислительные процессы и их выход могут существовать без когнитивных состояний. Притворяться, будто вы ничего не чувствуете — это не ответ. В «когнитивных науках» предполагается реальность и познаваемость ментального точно так же, как в физических науках предполагается реальность и познаваемость физических объектов.

Критики полагают, что если наши доказательства наличия понимания у людей совпадают с возможными доказательствами наличия понимания у внеземных пришельцев, а также — у роботов, то предположения, которые мы можем сделать в отношении нашего собственного вида, нерелевантны, поскольку предпосылки иногда бывают ложными. По тем же причинам Тьюринг, предлагая свой тест, был особенно обеспокоен нашими предпосылками и нашим шовинизмом. Если основания наших предположений относительно человеческих существ прагматичны в том смысле, что они позволяют нам предсказывать поведение людей и эффективно с ними взаимодействовать, то, возможно, такое предположение могло бы применяться точно также и к компьютерам (аналогичные соображения мы встречаем в рассуждениях Деннетта о том, что он называет Интенциональной Установкой).

Сёрл поднимает вопрос о том, что именно мы приписываем, когда приписываем понимание другим сознаниям, утверждая, что сознание есть нечто большее, чем сложные поведенческие навыки. Похоже, для Сёрла определенные состояния сознания являются дополнительными, как видно из его краткого обзора выводов аргумента КК за 2010 год. Терри Хорган (Horgan 2013) поддерживает это утверждение: «истинный смысл мысленного эксперимента китайской комнаты Сёрла заключается в том, что подлинная первичная интенциональность требует присутствия внутренних состояний с присущими им феноменальными свойствами, которые по своей природе интенциональны...» Но эта связь понимания с феноменальным сознанием вызывает множество вопросов.

Мы приписываем ограниченное понимание языка младенцам, собакам и другим животным, но не ясно, что мы ipso facto приписываем им невидимые состояния субъективного сознания. Ведь что мы знаем о скрытых состояниях экзотических существ? Людвиг Витгенштейн (аргумент индивидуального языка) и его последователи выдвинул аналогичные возражения. Возникают возможности измененных квалиа, аналогичные инвертированному спектру: предположим, я спрашиваю «чему равна сумма 5 и 7», а вы отвечаете «сумма 5 и 7 равна 12», но когда вы услышали мой вопрос, у вас был сознательный опыт слышания и понимания «чему равна сумма 10 и 14», хотя при этом находились в «вычислительных состояниях», подходящих для получения правильной суммы, а потому сказали «12». Существуют ли определенные сознательные состояния, которые являются «правильными» для определенных функциональных состояний? Лежащая здесь в основе проблема эпифеноменальности знакома нам по проблемам инвертированного спектра — трудно понять, что добавляет субъективное сознание, если оно само по себе не является функционально важным.

После 30 лет, прошедших после обнародования аргумента КИ, философы заинтересовались зомби — существами, которые выглядят и ведут себя так же, как нормальные люди, включая языковое поведение, но не имеют субъективного сознания. Трудности с утверждением, что субъективные состояния сознания играют ключевую роль в понимании значения, возникнет в подобных случаях отсутствия квалиа: мы не можем отличить зомби от не-зомби, а потому в случае Сёрла мы не можем провести различие между теми, кто действительно понимает английский, и теми, кто его не понимает. Но тогда, похоже, существует отличие, которое не предполагает различия (distinction without a difference). В любом случае, короткий ответ Сёрла на ОДС может быть чересчур коротким.

Как известно, Декарт утверждал, что способности к речи достаточно для приписывания разума и сознания другим существам, а также (что снискало ему дурную славу), что наличие данной способности необходимо для их приписывания. Тьюринг фактически поддерживал условие достаточности Декарта, по крайней мере, для интеллекта, заменив устное языковое поведение на письменное. Поскольку большинство на практике считают способность вести диалог достаточным условием для приписывания понимания, сёрловскому аргументу — который гласит, что речь является достаточным условием для человека (во всех состояниях лунатизма, инсульта?), но не для существ, имеющих отличную от нашей биологию, — в этом случае может возникнуть потребность объяснить, что именно приписывается дополнительно и что именно может обосновать это дополнительное приписывание. Кроме того, если главным в подходе Сёрла является принадлежность к тому же виду, возникает естественный вопрос: какие факторы дают нам основание приписывать понимание (или сознание) внеземным пришельцам, чья биология отлична от нашей? Обижать инопланетян, отказываясь приписывать им понимание до процедуры вскрытия, было бы рискованно.

Ханс Моравек, директор лаборатории робототехники в Университете Карнеги-Меллона и автор книги «Робот: просто машина для трансцендентного сознания», утверждает, что позиция Сёрла всего лишь отражает интуиции традиционной философии сознания, которые не соответствуют новой когнитивной науке. Моравек одобряет версию ОДС. Имеет смысл приписывать интенциональность машинам по тем же причинам, по которым имеет смысл приписывать ее людям. Его «интерпретирующая позиция» аналогична взглядам Дэниела Деннетта. Далее Моравек отмечает, что, кроме всего прочего, мы приписываем другим способность приписывать интенциональность, а затем мы приписываем ее и себе. Именно такая само-репрезентация лежит в основе сознания (consciousness). Похоже, эти способности не зависят от реализации и, следовательно, возможны и для инопланетян, и для соответствующим образом запрограммированных компьютеров.

Вероятно, причина, по которой Сёрл полагает, что мы можем игнорировать это доказательство в случае роботов и компьютеров, заключается в нашем знании о том, что они обрабатывают информацию синтаксически, и этот факт перевешивает все остальные соображения. Действительно, Сёрл верит, что это — более важное соображение, которое китайская комната лишь иллюстрирует. Оно рассматривается в разделе «Синтаксис и семантика» далее. 

Ответ от интуиции

Во многих ответах на аргумент китайской комнаты отмечается, что, как и в случае с мельницей Лейбница, этот аргумент основывается на интуиции: на интуиции, что компьютер (или человек в комнате) не способен думать или понимать. Например, Нед Блок (Block 1980) в своем оригинальном комментарии в журнале The Behavioral and Brain Sciences говорит, что «сила аргумента Сёрла покоится на интуиции о том, что некоторые сущности не мыслят». Но, утверждает Блок, (1) интуиции иногда могут и должны быть опровергнуты и (2) возможно, нам следовало бы привести нашу концепцию понимания в соответствие с реальностью, где определенные компьютерные роботы принадлежат к тому же естественному виду, что и люди. Схожим образом Маргарет Боден (Boden 1988) указывает, что мы не можем доверять нашим наивным интуициям о зависимости сознания от материи; развитие науки может изменить наши интуиции. В самом деле, именно желание устранить предвзятость из наших интуиций побудило Тьюринга (1950) предложить свой тест, который не принимал во внимание физический характер отвечающей на вопросы системы. Некоторые из критиков Сёрла, в сущности, утверждают, что он просто перенес доверие к интуиции обратно, в комнату.

Критики утверждают, что наша интуиция относительно интеллекта и понимания может быть ненадежной и, возможно, несовместимой даже с современной наукой. Затрагивая вопросы понимания, Стивен Пинкер в статье «Как работает разум» (1997) утверждает, что «… Сёрл просто изучает факты об английском слове “понимать” ... Люди не хотят использовать это слово, покуда не вступят в силу определенные стереотипические условия…». Но, как утверждает Пинкер, здесь нет никаких научных ставок. Пинкер возражает против обращения Сёрла к «каузальным силам мозга», отмечая, что очевидное местопребывание каузальных способностей — это «паттерны взаимосвязанности, правильным образом обрабатывающие информацию». Пинкер заканчивает свою дискуссию научно-фантастической историей, где пришельцы, анатомически совершенно отличные от людей, обнаруживая, что наши головы заполнены мясом, не могут поверить, что люди способны думать. Интуиция инопланетян ненадежна, что, вероятно, можно сказать и о нашей. 

Другие критики также обеспокоены тем, как наше понимание понимания основывается на аргументе китайской комнаты. В своей статье «Китайская комната, которая понимает» исследователи ИИ Саймон и Эйзенштадт (Simon and Eisenstadt 2002) утверждают: в то время как Сёрл опровергает «логически сильный ИИ» — тезис о том, что прошедшая тест Тьюринга программа обязательно будет понимать, — аргумент Сёрла не ставит под сомнение «эмпирический Сильный ИИ» — тезис о том, что мы можем запрограммировать компьютер таким образом, что обычные критерии понимания будут убедительным образом удовлетворены. Тем не менее они считают, что эти вопросы невозможно решить «без использования определения термина “понимать”, которое могло бы обеспечить проверку суждения об истинности или ложности гипотезы». Они цитируют статью «Слово и объект» В.О. Куайна в целях демонстрации того, что в приписывании понимания людям всегда есть эмпирическая неопределенность. Китайская комната — это трюк вроде умного Ганса (умный Ганс — лошадь, которая, как казалось, умела находить ответы на простые арифметические вопросы, однако впоследствии было установлено, что Ганс при ответе мог ориентироваться на бессознательные сигналы своего тренера). Схожим образом, человек в комнате не понимает по-китайски, и его можно разоблачить при внимательном наблюдении. (Саймон и Айзенштадт не объясняют, как можно организовать такое наблюдение или как оно может повлиять на аргумент.) Ссылаясь на работу Рудольфа Карнапа, Саймон и Айзенштадт утверждают, что «понимать» означает не просто демонстрировать определенное поведение, но использовать «намерения» (intensions), которые определяют расширения (extensions), и что в ходе наблюдения за работой реальных программ мы можем увидеть, что они используют соответствующие намерения. Они обсуждают три реальные ИИ-программы и высказываются в пользу различных атрибуций ментальности, включая атрибуцию понимания, делая вывод, что компьютеры понимают. Они изучают «намерения через соединения слов и других языковых структур с их денотатами, обнаруживаемыми посредством сенсорных стимулов». И, поскольку мы можем наблюдать весь процесс работы машин, нам «на самом деле легче установить признаки понимания у машин, чем у людей». Таким образом, заключают они, доказательство эмпирического сильного ИИ неоспоримо.

Схожим образом Дэниел Деннетт в своем первоначальном ответе 1980 года на аргумент Сёрла назвал его «насосом интуиции»: термин, который он придумал в ходе обсуждения аргумента КК с Хофштадером. Взвешенная точка зрения Деннета (2013) состоит в тезисе, что аргумент КК «очевидно ошибочен и вводит в заблуждение …» (320). Пол Тагард (Thagard 2013) предлагает, чтобы для каждого мысленного эксперимента в философии существовал равный и противоположный мысленный эксперимент. Он считает, что интуиции ненадежны и что аргумент КК является тому примером (и что фактически аргумент КК сегодня опровергнут технологией автономных роботизированных автомобилей). Деннетт подробно останавливался на нашей интуиции относительно интеллекта. Деннетта (в работе «Быстрое мышление», 1987) беспокоила низкая скорость, с которой работала бы Китайская комната — это беспокойство разделяли и другие комментаторы, в числе которых были Тим Модлин, Дэвид Чалмерс и Стивен Пинкер. Оператор Китайской комнаты в конечном итоге способен дать соответствующие ответы на вопросы на китайском. Однако те, кто думают медленно, вовсе не разумны, а глупы — и в дикой природе они вполне могли бы умереть. Деннетт утверждает, что «скорость ... имеет “первостепенное значение” для интеллекта. Если вы не можете достаточно быстро разобраться в соответствующих областях изменяющейся среды, чтобы позаботиться о себе, в практическом смысле вы не обладаете разумом, сколь бы сложным вы ни были» (326). Таким образом, Деннетт соотносит интеллект со скоростью обработки информации, которая поступает из актуальной среды. Тим Модлин (1989) с этим не согласен. Модлин рассматривает проблему шкалы времени, на которую указывают другие авторы, и, вопреки Деннетту, делает вывод, что крайняя медлительность вычислительной системы не нарушает каких-либо необходимых условий мышления или сознания.

Стивен Пинкер (1997) также считает, что Сёрл опирается на наивную интуицию. Пинкер одобряет встречный пример Черчлендов (1990) с аналогичным мыслительным экспериментом (человек размахивает магнитом, но свет не возникает), отмечая, что его результат не опровергнет теорию Максвелла, согласно которой свет состоит из электромагнитных волн. Пинкер считает, что первостепенное значение здесь имеет вопрос о скорости: «В этом мысленном эксперименте скорость волн замедляется до отметки, за которой мы, люди, больше не распознаем их как свет. Полагаясь на свою интуицию, мы ошибочно заключаем, что быстрые волны также не могут быть светом. Точно так же Сёрл «замедлил» умственные вычисления до отметки, за которой мы, люди, больше не распознаем их как понимание (поскольку понимание обычно намного быстрее)» (94–95). Говард Гардинер, сторонник выводов Сёрла относительно КК, делает аналогичное замечание относительно понимания. Гардинер анализирует аргумент китайской комнаты в своей книге Новая наука о разуме (1985: 171–177). Он рассматривает все стандартные ответы на аргумент китайской комнаты и приходит к выводу, что Сёрл прав в отношении комнаты: «…в случае китайской комнаты значение слова “понимать” было чрезмерно расширено…» (175). 

Таким образом, некоторые из этой группы критиков утверждают, что скорость влияет на нашу готовность приписать интеллект и понимание медленной системе, такой как система китайской комнаты. Результатом данного утверждения может быть всего лишь вывод, что наша интуиция о китайской комнате ненадежна и, следовательно, при реализации программы человек в комнате может понимать китайский язык несмотря на нашу интуицию об обратном (Модлин и Пинкер). Или же мы можем принять скорость в качестве главного фактора, влияющего на наше решение о том, где проходит различие между симуляцией в комнате и действиями быстрого компьютера, придя к заключению, что человек не разумен, тогда как компьютер — да (Деннетт).

Более общие философские проблемы

Синтаксис и семантика

Сёрл полагает, что аргумент китайской комнаты говорит в пользу более широкой позиции, которая объясняет неспособность китайской комнаты произвести понимание. Сёрл утверждал, что реализуемые компьютерами программы являются просто синтаксическими. Компьютерные операции являются «формальными» в том смысле, что они реагируют только на физическую форму строк символов, а не на значение символов. С другой стороны, у сознания есть состояния, обладающие значением, ментальным содержанием. Мы ассоциируем значения со словами или знаками в языке. Мы реагируем на знаки в силу их значения, а не только из-за их физических свойств. Короче говоря, мы понимаем. Однако, согласно Сёрлу, это обстоятельство имеет ключевое значение: «Синтаксис сам по себе недостаточен для семантики и не является ее главным элементом». Таким образом, хотя компьютеры и могут быть способны манипулировать синтаксисом для получения соответствующих ответов на ввод из естественного языка, они не понимают предложений, которые они получают или выводят, поскольку не могут связать значения со словами.

Сёрл (1984) предлагает аргумент с тремя посылками: поскольку синтаксис недостаточен для семантики, программы не могут произвести сознания.

Программы являются чисто формальными (синтаксическими).

У человеческого сознания есть ментальное содержание (семантика).

Синтаксис сам по себе недостаточен для семантического содержания и не является для него определяющим элементом.

Следовательно, программы сами по себе недостаточны для сознания и не являются его определяющим элементом.

Мысленный эксперимент китайской комнаты как таковой поддерживает третью посылку. Утверждение о том, что синтаксические манипуляции недостаточны для значения или мышления, является существенной проблемой, которая имеет более широкие импликации, чем проблема ИИ или проблема атрибуции понимания. В главных теориях сознания утверждается, что человеческое познание в целом носит вычислительный характер. Одна из версий гласит, что мысль оперирует с символами ввиду их физических свойств. В альтернативной версии — коннекционизме — утверждается, что вычисления протекают в «субсимволических» в состояниях. Если Сёрл прав, то не только Сильный ИИ, но и эти основные интерпретации человеческого познания ошибочны.

Как мы уже видели, Сёрл настаивает, что сценарий китайской комнаты доказывает невозможность получения семантики из одного лишь синтаксиса. В системах формальной логики, своего рода искусственном языке, правила прописываются для синтаксиса, и данная процедура, по-видимому, совершенно не зависит от семантики. Логик задает базовый набор символов и некоторые правила для работы со строками для создания новых символов. Эти правила являются чисто формальными или синтаксическими: они применяются к строкам символов исключительно в силу синтаксиса или формы последних. Семантика, если таковая имеется, для системы символов должна прописываться ​​отдельно. И тот, кто хочет показать, что между синтаксическими операциями и семантикой устанавливаются любопытные дополнительные отношения, такие, что манипуляции с символами сохраняли бы истинность, должен привести подчас сложные мета-доказательства. Итак, на первый взгляд кажется, что семантика искусственных языков совершенно не зависит от синтаксиса и что получить семантику только лишь из синтаксиса невозможно. «Самих по себе формальных символов никогда не может быть достаточно для ментального содержания, поскольку символы по определению не обладают значением (или интерпретацией, или семантикой), за исключением случаев, когда некто извне комнаты им его приписывает» (Searle 1989: 45).

Отождествление значения с интерпретацией в этом отрывке очень важно. Идея Сёрла явно верна в отношении каузально инертных формальных систем, которые предлагают логики. Однако, когда мы переходим от формальных систем к вычислительным системам, ситуация усложняется. Как отмечают многие критики Сёрла (напр., Cole 1984, Dennett 1987, Boden 1988 и Чалмерс 1996), запускающий программу компьютер отличается от «только лишь синтаксиса». Компьютер — чрезвычайно сложная электронная каузальная система. Изменения состояния в системе носят физический характер. Можно интерпретировать физические состояния, например, электрическое напряжение, как синтаксические 1 и 0, но их внутренняя реальность все равно является электронной, а синтаксис «производен», то есть является продуктом интерпретации. Состояния синтаксически определяются программистами, но в основном они являются состояниями сложной каузальной системы, встроенной в реальный мир. Это сильно отличается от абстрактных формальных систем, которые изучают логики. Деннетт отмечает, что никакая «компьютерная программа сама по себе» (язык Сёрла) — например, программа, лежащая на полке — не может быть причиной чего бы то ни было, даже простого сложения, не говоря уже о ментальных состояниях. Программа должна быть запущена. Чалмерс (1996) предлагает пародию, в которой доказывается, что рецепты — синтаксичны, синтаксис недостаточен для рассыпчатости, пирожки — рассыпчаты, поэтому реализации рецепта недостаточно для изготовления пирога. Деннетт (1987) резюмирует проблему следующим образом: «позиция Сёрла, таким образом, приобретает следующим вид: возьмем материальный объект (любой материальный объект), неспособный генерировать ментальные явления. Вы не сможете, просто перепрограммировав его, придать ему способность генерировать ментальные явления, то есть реорганизуя условные зависимости переходов между его состояниями». Деннет считает, что «именно программирование могло бы наделить какую-либо сущность сознанием». Однако Деннетт утверждает, что в реальности «эмпирически маловероятно, что правильные программы будут запущены на чем-либо, кроме органического человеческого мозга» (325–6).

Еще одна связанная с этим сложность заключается в следующем: далеко не очевидно, что компьютеры выполняют синтаксические операции в том же смысле, что и человек. То есть не очевидно, что компьютер понимает синтаксис или синтаксические операции. Компьютер не знает, что он манипулирует с 1 и 0. Компьютер, в отличие от человека в китайской комнате, не распознает, что его строки двоичных данных имеют определенную форму и что, следовательно, к ним могут применяться определенные синтаксические правила. Внутри компьютера нет ничего, что буквально считывало бы входные данные или что «знало» бы, что такое символы. Вместо этого в нем работают миллионы транзисторов, ответственных за изменение состояний. Последовательность напряжений изменяет ход выполнения операций. Мы, люди, можем интерпретировать эти напряжения как двоичные числа, а изменения напряжения — как синтаксические операции, но компьютер не интерпретирует свои операции как синтаксические или какие-либо иные. Поэтому, возможно, компьютеру не нужно переходить от синтаксиса к семантике, чему возражает Сёрл. Ему необходимо перейти от сложных каузальных связей к семантике. Кроме того, возможно, что любую каузальную систему можно описать как выполнение синтаксических операций: если мы интерпретируем светлый квадрат как логический «0», а темный квадрат как логический «1», то кухонный тостер может быть описан как устройство, переписывающее логические «0» на логические «1».

В 1990-х годах Сёрл начал использовать связанные с этим соображения для демонстрации того, вычислительные подходы не просто ложны, но лишены четкого смысла. Вычисления, или синтаксис, «зависят от наблюдателя», а не являются неотъемлемой чертой реальности: «… вы можете давать “вычислительную интерпретацию” чему угодно» (Searle 2002b: 17), даже молекулам настенной краски. Поскольку ничто по сути своей не является вычислительным, у нас не может быть научной теории, которая сводит ментальное, не зависящее от наблюдателя, к вычислению, которое, напротив, от него зависит. «Вычисление существует только относительно какого-либо агента или наблюдателя, который применяет вычислительную интерпретацию к тому или иному явлению. Это очевидный момент. Я должен был понять это еще десять лет назад, но не понял» (Searle 2002b: 17, первоначально опубликовано в 1993).

Критики отмечают, что стены не являются компьютерами; в отличие от стены, компьютер проходит ряд состояний, которые контрафактически описываются программой (Chalmers 1996, Block 2002, Haugeland 2002). В своей статье 2002 года Блок рассматривает вопрос о том, является ли стена компьютером (в ответ на обвинение Сёрла, что все, размещенное в формальной системе, является формальной системой, тогда как с сознанием дело обстоит иначе). Блок отрицает, что ответ на вопрос, является ли нечто компьютером, полностью зависит от нашей интерпретации. Он отмечает, что Сёрл игнорирует контрафактические построения, которые должны быть верны для реализующей системы. Схожим образом Хаугеланд (Haugeland 2002) подчеркивает, что реализация будет каузальным процессом, надежно осуществляющим операции, каковые должны обладать надлежащей казуальной силой. Блок заключает, что аргументы Сёрла терпят крах, но признает, что с их помощью «нам удается лучше понять природу интенциональности и ее связи с вычислением и репрезентацией» (78).

Рей (Rey 2002) также обращается к аргументам Сёрла о том, что синтаксис и символы суть свойства, зависящие от наблюдателя, а не нечто физическое. Сёрл выводит это из того факта, что у них нет физического определения. Однако из этого вовсе не следует, что они являются зависимыми от наблюдателя. Рей утверждает также, что Сёрл неправильно понимает реализацию программу. Рей соглашается с ответом Чалмерса Патнэму: реализация — это не просто структурное отображение, она запускает каузацию, поддерживающую контрафактические построения. «Это так часто упускается из виду, что стоит повторить: синтаксически специфицируемые объекты, для которых определяются вычисления, могут обладать и как правило обладают семантикой; просто семантика не участвует в спецификации». Состояния человека имеют свою семантику благодаря их вычислительной организации и их каузальным связям с миром. Рей заключает: Сёрл «просто не учитывает существенных ресурсов функционализма и сильного ИИ». (222) Рассказ, содержащий правдоподобные детали, умерил бы остроту негативных выводов, сделанных из поверхностного наброска системы в китайской комнате.

Джон Хаугеланд (Haugeland 2002) утверждает, что в определенном смысле процессор должен понимать команды в запускаемых им программах: он выполняет их в соответствии со спецификациями. «Понять компьютер как выполнение программы мы можем единственно допустив, что его процессор реагирует на имеющие для него смысл предписания программы» (385). Таким образом, символы операций имеют смысл для системы. Хаугеланд продолжает проводить различие между узкой и широкой системой. Он утверждает, что данные могут иметь семантику в широкой системе, которая включает в себя репрезентации внешних объектов, производимые датчиками. Попутно Хаугеланд делает необычное заявление, которое он доказывает в другом месте: подлинный интеллект и семантика предполагают наличие «способности следовать некоей жизненной ориентации», каковая не является пропозициональной, иными словами, — способности любить (ср. фильм Стивена Спилберга 2001 года «Искусственный интеллект»).

Относительно утверждения Сёрла, что синтаксис зависит от наблюдателя и что молекулы стены могут быть поняты как реализация программы Wordstar (старой программы обработки текста), поскольку «поскольку движения молекул следует некоему паттерну, который изоморфен формальной структуре Wordstar» (Searle 1990b, p. 27), Хаугеланд считает, что «сама идея сложного синтаксического знака… предполагает конкретные процессы записи и чтения…». Знаки должны быть способны систематически воспроизводиться и восстанавливаться. Соответственно, никакой случайный изоморфизм или паттерн где-либо (например, на некоторой стене) не может быть исчислен, и, следовательно, синтаксис не является зависимым от наблюдателя. 

Что касается вопроса о том, можно ли получить семантику из синтаксиса, Уильям Рапапорт в течение многих лет выступал за «синтаксическую семантику». Согласно его точке зрения, понимание является особой формой синтаксической структуры, в которой символы (такие, как китайские слова) привязаны к синтаксически репрезентируемым понятиям. Другие авторы считают, что мы еще не достигли этого. Футуролог и адепт ИИ («Эра духовных машин») Рэй Курцвейл в своей последующей книге 2002 года высказывает точку зрения, что мы, фиксируясь на традиционных компьютерах, манипулирующих символами, идем по ложному пути. Курцвейл соглашается с Сёрлом в том, что существующие компьютеры не понимают язык, о чем свидетельствует тот факт, что они не могут убедительным образом вести диалог. Но эта неудача не влияет на возможности будущих компьютеров, базирующихся на другой технологии. Курцвейл утверждает, что Сёрл не в силах понять, что будущие машины будут использовать «хаотические эмерджентные методы, основанные на массивно-параллельных вычислениях». Это утверждение с виду похоже на утверждение коннекционистов, таких как Энди Кларк, равно как и на идею Черчлендов, высказанную в статье 1990 года в журнале Scientific American.  

За исключением утверждения Хаугеланда о том, что процессоры понимают инструкции программы, критики Сёрла могут согласиться с тем, что компьютеры понимают синтаксис не более, чем семантику, хотя, как и все каузальные механизмы, компьютер имеет синтаксические описания. И хотя программистам часто бывает полезно относиться к машине так, как будто она выполняет синтаксические операции, это не всегда так: иногда используемые программистами символы — это просто переключатели, которые заставляют машину делать нечто, например, заставлять определенный пиксель на экране компьютера загораться красным или заставлять трансмиссию автомобиля переключить передачи. Таким образом, истинность утверждения Сёрла, что цифровой компьютер — это всего лишь «манипулирующее символами» устройство», не очевидна. Компьютеры — это сложные каузальные механизмы, и синтаксические описания полезны для структурирования каузальных связей в машине. Программисты ИИ сталкиваются со множеством сложных проблем, но можно утверждать, что им не требуется получать семантику из синтаксиса. Если они хотят получить семантику, они должны получить ее из каузальности.

Сегодня есть два основных подхода, объясняющих смысл через каузальные связи. Интерналистские подходы, такие как концептуально-репрезентативные подходы Шэнка и Рапапорта, а также концептуальная семантика ролей, утверждают, что состояние физической системы получает свою семантику от каузальных связей с другими состояниями той же системы. Соответственно, состояние компьютера может репрезентировать «киви», поскольку оно связано с «птичьими» и «нелетающими» узлами, а, возможно, также с изображениями прототипических киви. Состояние, которое репрезентирует свойство «быть нелетающим», может получить свое содержание от оператора-отрицания (Negation-operator), модифицируя репрезентацию «быть способным к воздушному самодвижению» и т.д., чтобы сформировать концептуальную сеть с широким набором связей, своего рода ментальный словарь.

Экстерналистские подходы, разработанные Деннисом Стампе, Фредом Дрецке, Хилари Патнэмом, Джерри Фодором, Рут Милликеном и другими авторами, содержат утверждение, что состояния физической системы получают свое содержание посредством каузальных связей с внешней реальностью, которую они репрезентируют. Огрубляя, можно сказать, что система, обладающая понятием КИВИ, — это система, обладающая неким состоянием, которое она использует для репрезентации присутствия птиц киви во внешней среде. Это репрезентирующее киви состояние может быть любым состоянием, которое надлежащим образом каузально связано с присутствием киви. В зависимости от системы состояние, репрезентирующее киви, может быть состоянием мозга, или состоянием электрического устройства, такого как компьютер, или даже состоянием гидравлической системы. Внутреннее репрезентирующее состояние может, в свою очередь, играть каузальную роль в определении поведения системы. Например, Рей (1986) поддерживает семантику индикаторов, следуя идеям, высказанным в работах Денниса Стэмпа (Stampe 1977) и Фодора («Психосемантика»). Семантика, которая акцентирует каузальную связь с миром, хорошо согласуется с ОР. Компьютер в теле робота может иметь только каузальные связи, которые могли бы позволить его внутренним синтаксическим состояниям иметь семантическое свойство репрезентирующих состояний вещей в его среде.

Таким образом, существует по крайней мере два семейства теорий (и соединения этих двух, как в Block 1986) о зависимости семантики от каузальных связей. Все они пытаются предложить объяснение, для которого материал систем был бы безразличен: состояния надлежащим образом организованных каузальных систем могут иметь содержание независимо от того, из чего сделаны системы. В этих теориях компьютер может иметь состояния, обладающие значением. Нет необходимости, чтобы компьютер знал о своих собственных состояниях, знал, что они имеют значение, или же чтобы любой посторонний осознавал значение таких состояний. В любом из этих случаев значение зависит от (возможно, сложных) каузальных связей, а цифровые компьютеры — это системы, разработанные для того, чтобы иметь состояния, которые как раз имеют такие сложные каузальные связи. Следует отметить, что Сёрл не поддерживает эти теории семантики. Вместо этого, рассуждая о лингвистическом значении, он зачастую концентрировался на понятии интенциональности.

Интенциональность

Интенциональность — это свойство «быть о чем-то», обладать содержанием. В XIX веке психолог Франц Брентано заново ввел этот термин средневековой философии, полагая, что интенциональность является «признаком ментального». Верования и желания — это интенциональные состояния: они имеют пропозициональное содержание (кто-то считает, «что р», кто-то желает «р», где предложения заменяются на «р»). Сёрловская интерпретация интенциональности довольно витиевата. Здесь уместно указать, что он проводит различие между первичной, или внутренней, интенциональностью подлинных ментальных состояний и производной интенциональностью языка. Письменное или устное предложение имеет производную интенциональность постольку, поскольку оно кем-то истолковано. По-видимому, Сёрл полагает, что первичная интенциональность может быть сознательной, по крайней мере потенциально. Далее Сёрл утверждает, что различие между первичной и производной интенциональностью применимо и к компьютерам. Мы можем интерпретировать состояния компьютера как содержательные, но сами состояния не имеют первичной интенциональности. Многие философы поддерживают этот дуализм интенциональности, в том числе Фодор (2009), несмотря на свои многочисленные разногласия с Сёрлом.

В разделе своей книги 1988 года Компьютерные модели разума Маргарет Боден отмечает, что интенциональность есть нечто весьма запутанное, так что, по ее мнению, нам не следует придавать слишком большое значение тем аргументам, которые так или иначе с ней связаны. Также, в той степени, в которой мы понимаем мозг, мы концентрируемся на информационных функциях, а не на неопределенных каузальных силах мозга: «… с психологической точки зрения важна не биохимия как таковая, а основанные на ней информационные функции» (241). Оппоненты Сёрла утверждают, что он проявляет «субстанциональный шовинизм», когда настаивает, что мозги способны понимать, и при этом отрицает (даже в принципе) наличие этой способности у систем из кремля, чью возможности обработки информации сопоставимы возможностями мозга. Возник ряд статей, где высказывались противоположные точки зрения: например, статья Дж. Мэлоуни «Правильное вещество» 1987 года, защищающая Сёрла, и критика Р. Шарви «Это не мясо, а движение» 1985 года. Такие сторонники ИИ, как Курцвейл (1999, см. также Richards 2002), продолжали полагать, что системы ИИ потенциально могут обладать ментальными свойствами вроде понимания, интеллекта, сознания и интенциональности и когда-нибудь превзойдут человеческие способности в этих областях.

Другие критики сёрловской позиции относятся к интенциональности более серьезно, чем Боден, однако отвергают дуалистическое различие между первичной и производной интенциональностью. Деннет (напр., в Dennett 1987) утверждает, что всякая интенциональность является производной. Приписывания интенциональности — животным, другим людям, даже нам самим — играют важную роль и позволяют нам предсказывать поведение, однако не являются описаниями внутренних свойств. Как мы уже видели, Деннетт обеспокоен медленной скоростью процессов в китайской комнате, но, по его утверждению, как только система заработает с нужной скоростью, она приобретет все необходимое для интеллекта и производной интенциональности. Последняя же, по словам Деннета, является единственной интенциональностью. Машина может быть интенциональной системой, поскольку интенциональные объяснения могут предсказывать поведение машины. Деннетт также предполагает, что Сёрл связывает интенциональность с осознанием интенциональности. В своих синтаксически-семантических аргументах «Сёрл, по-видимому, перепутал утверждение о невыводимости семантики из синтаксиса с утверждением о невыводимости сознания семантики из синтаксиса» (336). Мы могли бы также обеспокоиться тем, что Сёрл объединяет значение и интерпретацию и что первичная или непроизводная интенциональность Сёрла — это просто интенциональность второго порядка: репрезентация значения интенционального объекта. Дрецке и другие авторы считают, что интенциональность базируется на информации. Одно состояние мира, включая состояние в компьютере, может нести информацию о других состояниях в мире, и эта направленность на информацию (aboutness) является независимой от разума характеристикой состояний. Следовательно, ошибочно считать, что сознательные приписывания значения являются источником интенциональности.

Другие отмечали, что в ходе своих рассуждений Сёрл сместил фокус с вопросов интенциональности и понимания на вопросы о сознании (consciousness). Сёрл связывает интенциональность с сознанием интенциональности, где интенциональные состояния по крайней мере потенциально сознательны. В своей книге 1996 года «Сознающий ум» Дэвид Чалмерс отмечает, что, хотя Сёрл первоначально направляет свой аргумент против машинной интенциональности, его более поздние работы показывают, что реальной проблемой для Сёрла является сознание, которое, по его мнению, есть необходимое условие интенциональности. Сознание — вот чего не хватает цифровым компьютерам. Чалмерс использует мысленные эксперименты для доказательства неправдоподобности утверждения, что у одной системы имеется какое-то базовое ментальное свойство (например, наличие квалиа), которого нет у другой системы, коль скоро мы можем представить себе преобразование одной системы в другую, — либо постепенно (как замену нейронов один за другим с помощью цифровых схем), либо сразу, переключаясь с плоти на кремний и обратно.

Вторую стратегию, касающуюся присвоения интенциональности, используют критики-экстерналисты, которые, в сущности, утверждают, что интенциональность является неотъемлемой чертой состояний физических систем, которые надлежащим образом каузально связаны с миром независимо от типа интерпретации (см. предыдущий раздел о синтаксисе и семантике). Семантический экстернализм Фодора испытал влияние Фреда Дрецке, но они приходят к разным выводам относительно семантики состояний компьютеров. За последние годы Дрецке разработал исторический подход к проблеме значения или ментального содержания, который не позволяет приписывать убеждения и понимание большинству машин. Однако Дрецке (Dretske 1985) соглашается с Сёрлом относительно того, что выполняющие сложение машины в прямом смысле ничего не складывают; складываем мы, используя машины. Дрецке подчеркивает решающую роль естественного отбора и обучения в производстве таких состояний, которые имеют подлинное содержание. Созданные человеком системы будут в лучшем случае похожи на болотных людей (существ, которые возникают в результате удара молнии в болоте и которые случайно оказываются молекула-к-молекуле копией какого-то человека, скажем, вас). Кажется, что они имеют интенциональность или ментальные состояния, однако это не так, поскольку такие состояния требуют правильной истории. Состояния ИИ, как правило, будут подделками реальных ментальных состояний; подобно поддельным деньгам, они могут выглядеть совершенно идентично, но не иметь правильной родословной. Однако предложенное Дрецке объяснение убеждения проводит различие между ним и сознательным осознанием (conscious awareness) убеждения или интенционального состояния (если предполагается, что оно требует мысли более высокого порядка), а потому позволило бы приписывать интенциональность тем системам, которые способны к обучению.

Говард Гардинер одобряет предложенную Зеноном Пилишином критику взглядов Сёрла относительно связи мозга и интенциональности, предполагая при этом, что интенциональность каким-то образом «секретируется мозгом», и высказываясь в пользу мысленного контр-эксперимента самого Пилишина, где нейроны человека заменяются один за другим на аналогичные интегрированные схемы (см. также Chalmers 1996, где сценарии замены нейронов изучаются более подробно). Гардинер считает, что Сёрл должен дать нам более точное описание интенциональности, чем давал до сих пор. И покуда оно не предоставлено, остается открытым вопрос, может ли ИИ производить интенциональность, или же это выходит за рамки его возможностей. Гардинер приходит к заключению, что, возможно, спор между Сёрлом и его критиками носит не научный, а (квази?) религиозный характер.

Сознание и тело

Некоторые критики отметили, что в исходном аргументе речь в действительности идет о метафизических вопросах. Ответ от систем привлекает внимание к метафизической проблеме отношения сознания и тела, поскольку в нем утверждается, что понимание является свойством системы в целом, а не физического реализатора. Ответ от виртуального сознания предполагает, что сознания или личности — сущности, которые понимают и осознают — более абстрактны, чем любая физическая система, и что между сознанием и физическими системами может быть отношение многие-к-одному. Таким образом, в дебатах между Сёрлом и некоторыми его критиками большую роль играют вопросы о тождестве личности и отношении сознания и тела.

Сёрл считает, что проблема отношения сознания и тела «имеет довольно простое решение. Вот оно: сознательные состояния вызываются нейробиологическими низкоуровневыми процессами в мозге, а сами по себе они являются более высокоуровневыми свойствами мозга» (Searle 2002b: 9). В своем раннем обсуждении КК Сёрл говорил о каузальных силах мозга. Таким образом, он считает, что состояния мозга вызывают сознание и понимание, а «сознание есть просто черта мозга» (там же).

Сознание и понимание являются чертами личности, поэтому кажется, что Сёрл принимает метафизику, где Я, моя сознательная самость, тождественно моему мозгу — то есть одну из версий теории идентичности сознания-мозга. Эта очень конкретная метафизика отражена в оригинальном сёрловском изложении аргумента КК, где сильный ИИ описывался им как утверждение о том, что «надлежащим образом запрограммированный компьютер действительно является разумом» (Searle 1980). Это — утверждение об идентичности, и оно имеет странные последствия. Если A и B идентичны, любое свойство A является свойством B. Компьютеры являются физическими объектами. Некоторые компьютеры весят 6 фунтов и имеют стереодинамики. Таким образом, утверждение, которое Сёрл назвал «сильным ИИ», влечет за собой вывод, что некоторые сознания весят 6 фунтов и имеют стереодинамики. Впрочем, кажется очевидным, что в то время как люди могут весить 150 фунтов, человеческое сознание не весит 150 фунтов. Это говорит о том, что ни тела, ни машины не могут быть сознаниями в буквальном смысле. Похоже, что сознания более абстрактны и что по крайней мере одна версия аргумента, которую Сёрл называет «Сильный ИИ» (где утверждается, что компьютеры — это сознания), на первый взгляд метафизически несостоятельна независимо от любых мысленных экспериментов.

Аргумент КК Сёрла, таким образом, был направлен против утверждения, что компьютер является сознанием и что правильно запрограммированный цифровой компьютер (или его программа) понимает язык. Мысленный эксперимент Сёрла обращается к нашей сильной интуиции, согласно которой тот, кто сделал в точности то же, что делает компьютер, еще не приобрел тем самым понимание китайского языка. Как отмечалось выше, многие критики считают, что в данном вопросе Сёрл прав: независимо от того, как вы программируете компьютер, он не будет сознанием в буквальном смысле и не будет понимать естественный язык. Этот аргумент, однако, не может показать, что естественный язык способно понимать нечто иное — он не может показать, что ИИ не способен произвести понимание естественного языка, поскольку это было бы уже другим утверждением. Это не утверждение о том, что компьютер понимает язык или что программа или даже система понимает язык. Здесь утверждается, что ИИ производит понимание, причем здесь уточняется, какая именно вещь понимает. Этот понимающее сознание может не совпадать с компьютером, программой или системой, состоящей из компьютера и программы. Хаузер (Hauser 2002) обвиняет Сёрла в картезианской предвзятости, когда тот из высказывания «мне кажется совершенно очевидным, что я ничего не понимаю» выводит «я действительно ничего не понимаю». Обычно, если человек понимает английский или китайский, ему об этом известно, хотя и не обязательно. Сёрлу не хватает нормального интроспективного осознания понимания, но это, хоть и является ненормальным, не является исчерпывающим.

Функционализм — это теория отношения сознания-тела, которая была разработана за два десятилетия до аргумента КК. Функционализм является альтернативой теории идентичности, которая подразумевается в большей части рассуждений Сёрла, а также доминировавшему в середине XX века бихевиоризму. Если функционализм верен, то, похоже, нет реальной причины, в силу которой компьютер не мог бы иметь ментальные состояния. Следовательно, заключение аргумента КК о том, что компьютер по своей природе не способен иметь ментальные состояния, является важным доводом против функционализма. Джулиан Баггини (Baggini 2009: 37) пишет, что Сёрл «выдвинул, пожалуй, самый известный контрпример в истории — аргумент китайской комнаты — и одним интеллектуальным ударом нанес столь значительный ущерб доминировавшей тогда теории функционализма, так что последняя, как сказали бы многие, так никогда и не оправилась».

Функционалисты считают, что ментальное состояние является тем, что ментальное состояние делает: состояние определяется его каузальной (или «функциональной») ролью. Функционалист может считать, что, например, боль есть состояние, которое обычно вызвана повреждением тела, что она локализована в образе тела и вызывает отвращение. Функционалисты дистанцируются как от бихевиористов, так и от сторонников теории идентичности. В отличие от первых, функционалисты считают, что наличие внутренних каузальных процессов важно для обладания ментальными состояниями. Таким образом, функционалисты могут отклонить тест Тьюринга как слишком бихевиористский. В отличие же от сторонников теории идентичности, функционалисты считают, что ментальными состояниями могут обладать различные физические системы (или нефизические, как в работе Cole and Foelber 1984, где сознание переходит из материальной в нематериальную реализации, нейрон за нейроном). Таким образом, в то время как сторонник теории идентичности идентифицирует боль с определенной вспышкой нейронов, функционалист идентифицирует боль с чем-то более абстрактным и находящимся на более высоком уровне: с функциональной ролью, которую могут выполнять множество различных типов базисной системы. Функционалисты обвиняют теорию идентичности в «шовинизме субстанции». Тем не менее функционализм остается спорным: он уязвим перед возражениями типа китайской нации, которые обсуждались выше. Кроме того, функционалисты сталкиваются с трудностью при объяснении квалиа, что становится явным при открытии возможности инвертированного спектра, где качественно различные состояния могут играть одинаковую функциональную роль (напр., Block 1978, Maudlin 1989, Cole 1990).

Вывод относительно КК, который Сёрл озвучил в 2010 году, показывает, что вычислительные подходы не способны объяснить сознание. Начиная с 1980 года, в течение нескольких десятилетий наблюдался значительный интерес к определению того, что могло бы объяснить осознание. Проблема сознания стала активно исследуемым направлением во множестве различных дисциплин. Один из фокусов интереса был направлен на нейронные корреляты сознания. Это имеет прямое отношение к утверждению Сёрла о том, что сознание имеет биологическую природу, а не является вычислительным процессом или процессом обработки информации. Окончательного ответа пока нет, хотя в некоторых недавних работах по проблеме анестезии выдвигалось предположение, что при прерывании кортикальных (и кортико-таламических) соединений и информационных потоков осознание утрачивается (см., напр., обзорную статью Hudetz 2012,).

В целом, если подтвердится, что основа сознания находится на относительно абстрактном уровне потока информации, проходящим через нейронные сети, это станет аргументом пользу функционализма; если оно окажется более низкоуровневым и более биологическим (или субнейрональным), это будет более благоприятно для позиции Сёрла.

Эти противоречивые биологические и метафизические проблемы имеют основополагающее значение для аргумента КК. Исходя из интуиции, что находящийся в китайской комнате человек при запуске программы не поймет китайский язык, Сёрл делает вывод, что при запуске программы понимание не создается вообще. Очевидно, вопрос о справедливости данного вывода, в свою очередь, влечет за собой метафизический вопрос о тождестве личности и сознания. Если понимающая личность не идентична оператору комнаты, тогда вывод оказывается не обоснован.

Симуляция, дублирование и эволюция

Обсуждая аргумент КК, Сёрл говорит о важном различии между симуляцией и дублированием. Никто не может принять компьютерную симуляцию погоды за погоду или компьютерную симуляцию пищеварения за реальное пищеварение. Такой же серьезной ошибкой было бы путать компьютерную симуляцию понимания с пониманием.

На первый взгляд это выглядит верным. Однако возникают две проблемы. Не очевидно, что мы всегда способны провести различие между симуляциями и реальной вещью. Во всяком случае, сердца являются биологическими объектами. Являются ли искусственные сердца симуляциями сердца? Или они — функциональные дубликаты сердец, сделанные из других материалов? Ходьба обычно является биологическим явлением, выполняемым при помощи конечностей. Ходят ли люди с протезами? Или они имитируют ходьбу? Ходят ли роботы? Если свойства, необходимые для того, чтобы некоторые вещи принадлежали одному виду, являются свойствами высокого уровня, то все вещи, разделяющие эти свойства, будут принадлежать одному виду, даже если их свойства более низкого уровня будут отличаться друг от друга. Чалмерс (1996) предлагает принцип, который вступает в силу там, где симуляция является репликацией. Чалмерс предполагает, что, вопреки Сёрлу и Харнаду (1989), симуляция X может быть X, и это происходит в случае, когда свойство быть X является организационным инвариантом, то есть таким свойством, которое зависит только от функциональной организации базовой системы, а не от чего-то иного.

Коупленд (Copeland 2002) утверждает, что тезис Черча-Тьюринга не подразумевает, что мозг (или любая машина) может моделироваться универсальной машиной Тьюринга, поскольку мозг (или другая машина) может выполнять примитивные операции, не являющиеся простыми письменными процедурами, которые можно выполнить вручную. Спивак (Sprevak 2007) поднимает похожий вопрос. Тьюринг описал подобные машины («О-машины») в Принстонских тезисах 1938 года. Если мозг является такой машиной, тогда: «Нет никакой возможности, чтобы аргумент китайской комнаты Сёрла был успешно использован против функционалистской гипотезы о том, что мозг создает О-машину…» (120). Затем Коупленд обращает внимание на Ответ от симулятора мозга. Он полагает, что Сёрл прав, когда говорит, что мы не можем от «X симулирует Y» и «Y обладает свойством P» прийти к выводу, что Х имеет присущее Y свойство P для произвольного P. Но Коупленд утверждает, что Сёрл сам допускает ошибку симуляции, когда расширяет аргумент КК, используя его вначале против традиционного ИИ, а затем — против вычислительного подхода в целом. Противоположный вывод будет логически идентичен: «X симулирует Y», «X не имеет Р», следовательно «Y не имеет Р», где Р означает «понимать китайский». Ошибочный шаг выглядит так: оператор китайской комнаты S симулирует нейронную сеть N, S не понимает китайский, поэтому N не понимает китайский. Коупленд также отмечает результаты Зигельмана и Зонтаг (Siegelmann and Sontag 1994), показывающие, что некоторые коннекционистские сети не могут быть смоделированы универсальной машиной Тьюринга (в частности, те, в которых промежуточными весовыми коэффициентами являются действительные числа).

Существует еще одна проблема с симуляцией-дублированием различий, возникающих в ходе эволюции. Сёрл хочет считать, что первичная интенциональность и подлинное понимание являются свойствами только определенных биологических систем, предположительно, продуктом эволюции. Компьютеры просто симулируют эти свойства. В то же время, обращаясь к сценарию КК, Сёрл утверждает, что система может демонстрировать такое же сложное поведение, как и поведение человека, симулируя любой уровень интеллекта и языкового понимания, который только можно себе представить, и симулируя любую способность имения дела с миром, при этом совершенно ничего не понимая. Он также говорит, что подобные поведенчески сложные системы могут быть реализованы с использованием очень простых материалов, например, трубок с водой и клапанов.

Это создает биологическую проблему, выходящую за рамки Проблемы других сознаний, отмеченной ранними критиками аргумента КК. В то время как мы можем предполагать, что у других есть сознание, эволюция не делает таких предположений. Силы отбора, которые управляют биологической эволюцией, отбирают на основе поведения. Эволюция может выбрать способность творчески и разумно использовать информацию об окружающей среде при условии, что она проявляется в поведении организма. Если в поведении системы, которая понимает, и системы, которая не понимает, во всех случаях нет наблюдаемых различий, эволюция не может выбрать подлинное понимание. Таким образом, кажется, что, согласно Сёрлу, действительно понимающие значения сознания не имеют преимущества перед существами, которые просто обрабатывают информацию с помощью чисто вычислительных процессов. Соответственно, позиция, подразумевающая, что симуляция понимания может быть столь же биологически адаптивной, как и реальное понимание, ставит нас перед загадкой о том, как и почему вообще могут развиваться системы с «подлинным» пониманием. Первичная интенциональность и подлинное понимание становятся эпифеноменами.

Заключение

Как мы увидели, с момента своего появления в 1980 году аргумент китайской комнаты вызвал дискуссии в разных дисциплинах. Несмотря на широкое обсуждение, до сих пор нет единого мнения относительно того, насколько он обоснован. С одной стороны, есть оценка Джулиана Баггини (2009), гласящая, что Сёрл «выдвинул, пожалуй, самый известный контрпример в истории — аргумент китайской комнаты — и одним интеллектуальным ударом нанес столь значительный ущерб доминировавшей тогда теории функционализма, так что последняя, как сказали бы многие, так никогда и не оправилась». В то же время философ Дэниел Деннетт (2013: 320) приходит к выводу, что аргумент китайской комнаты «явно ошибочен и вводит в заблуждение». Так что исследователи пока не пришли к единому мнению относительного того, является ли аргумент КК тем доказательством, которое, наконец, умерит надежды на Искусственный Интеллект и амбиции вычислительных подходов к исследованию сознания.

Тем временем работа в области ИИ и обработки естественного языка продолжается. Аргумент КК мотивировал Стевана Харнада и других исследователей на поиск «заземления символов» в области ИИ. Многие философы (Дрецке, Фодор, Милликан) разрабатывали натуралистические теории ментального содержания. Размышления о природе сознания продолжаются во многих дисциплинах. А компьютеры переместились из лаборатории в наши карманы.

Когда Сёрл разрабатывал аргумент КК, персональные компьютеры были устройствами с очень ограниченными возможностями и использовались скорее в развлекательных целях. На компьютерах DEC работали Вейзенбаумские «Элиза» и несколько текстовых «приключенческих» игр. Они включали в себя ограниченные синтаксические анализаторы (парсеры). Более продвинутым синтаксическим анализом языка занимался лишь ограниченный круг компьютерных исследователей, подобных Шэнку. За последнюю четверть века многое изменилось; сейчас миллиарды людей носят компьютеры в своих карманах. Умерил ли аргумент китайской комнаты притязания производителей ИИ и систем естественного языка? Некоторые производители, подключающие устройства к «Интернету вещей», выдвигают скромные притязания: производитель бытовой техники LG говорит, что второе десятилетие XXI века принесло «опыт общения» с основными бытовыми устройствами. Это общение может быть или же не быть тем же самым, что и разговор. Компания Apple менее осторожно, чем LG, описывает возможности своего приложения «виртуальный личный помощник» под названием «Siri». Apple говорит о Siri: «Он понимает, что вы говорите. Он знает, что вы имеете в виду». IBM, не долго думая, заявляет, что их гораздо более крупная система «Уотсон» превосходит языковые возможности Siri. В 2011 году Уотсон победил людей-чемпионов в телеигре «Jeopardy», где победа в значительной степени зависит от языковых способностей и построения умозаключений. IBM продолжает утверждать, что отличие Уотсона состоит в том, что он «знает то, что знает, и знает то, чего не знает». Это выглядит как претензия на то, что компьютерная система Уотсон обладает рефлексивным самосознанием или сознанием. Таким образом, сегодня вряд ли кто-то сможет умерить заявления сильного ИИ, и, если уж на то пошло, некоторые из них будут еще сильнее и размашистее. В то же время, как мы уже видели, многие другие авторы считают, что аргумент КК раз и навсегда показал, что компьютеры в лучшем случае могут симулировать человеческое познание.

Хотя Лейбница и Сёрла разделяли три столетия, они имели схожие представления о системах, которые исследовали в своих мысленных экспериментах — мельнице Лейбница и китайской комнате. В обоих случаях рассматривается сложная система, состоящая из относительно простых операций, и отмечается, что мы не можем увидеть, как подобные системы могли бы произвести понимание или осознание. Эти простые аргументы помогают выявить серьезные проблемы, с которыми мы сталкиваемся при попытках понять значение и сознание. Многие вопросы, поднимаемые аргументом КК, не получат решения до тех пор, пока не будет достигнуто согласие относительно природы значения, его отношения к синтаксису и относительно биологической основы сознания. По-прежнему имеются значительные разногласия по поводу того, какие процессы создают значение, понимание и осознание, а также того, что вообще может быть доказано априори мысленными экспериментами.

* «Наше постчеловеческое будущее» — книга американского философа и политолога Фрэнсиса Фукуямы об антропологических вызовах, которые несут биотехнологии.

** Строки https://docs.microsoft.com/ru-ru/dotnet/csharp/programming-guide/strings/

*** Множественная реализуемость — идея в философии сознания, согласно которой один ментальный вид (свойство, состояние, событие) может быть реализован множеством различных физических видов. См. http://www.philosophy.ru/ru/multiple-realizability/.

**** Тип-типовая идентичность — разновидность теории идентичности (в философии сознания), которая предполагает, что ментальные события могут быть идентифицированы с физическими событиями таким образом, что событию одного вида будет соответствовать событие другого вида. См. в статье «The Mind/Brain Identity Theory».

***** Квалиа (от лат. qualia (мн. ч.) — свойства, качества, quale (ед. ч.) — какого сорта или какого рода) — термин, используемый в философии, преимущественно в англоязычной аналитической философии сознания, для обозначения сенсорных, чувственных явлений любого рода. Введен американским философом К. И. Льюисом (англ.) русск. в 1929 году. См. статью «Qualia». 

****** Компьютационализм — теория, согласно которой сознание является вычислительной системой. См. «The Computational Theory of Mind»

******* Абдукция —познавательная процедура принятия гипотез. Впервые явно выделена Ч.С. Пирсом, который рассматривал абдукцию (абдуктивный вывод) наряду с индукцией и дедукцией. Ч.С. Пирс считал, что, отбирая среди необозримого множества гипотез наиболее существенные, исследователи реализуют «абдукционный инстинкт», без которого невозможно было бы развитие науки. См. далее https://iphras.ru/page54852159.htm.

******** Хелен Келлер — американская писательница и политическая активистка. В возрасте девятнадцати лет в результате перенесенной болезни лишилась зрения и слуха. Благодаря применению новых методов в социальной педагогике она смогла получить степень бакалавра в Колледже Рэдклифф. Случай Келлер был первым задокументированным опытом обучения слепоглухонемых. 

Библиография

Лейбниц Г. В. (1982) Монадология. Сочинения в четырех томах. Том 1. М.: «Мысль». С. 413 — 429. 

Пинкер С. (2017) Как работает мозг / Пер. с англ. М.: Кучково поле.

Сёрл Дж. Разум мозга — компьютерная программа? // В мире науки. (Scientific American. Издание на русском языке). 1990. № 3.

Сёрл Дж. Сознание, мозг и наука // Путь, 1993, № 4.

Сёрл Дж. (1998) Сознание, мозг и программы // Аналитическая философия: становление и развитие. 

Сёрл Дж. (2002). Открывая сознание заново. М.: Идея-Пресс.

Хофштадтер Д., Деннет Д. (2003) Глаз разума. Самара: Бахрах-М. 

Чалмерс Д. (2013) Сознающий ум: В поисках фундаментальной теории. М.: URSS.

 

Apple Inc., 2014, ‘IOS 7 Siri’, accessed 1/10/2014.

Baggini, J., 2009, ‘Painting the bigger picture’, The Philosopher's Magazine, 8: 37–39.

Block, N., 1978, ‘Troubles with Functionalism’, in C. W. Savage (ed.), Perception and Cognition: Issues in the Foundations of Psychology, Minneapolis: University of Minnesota Press. (Reprinted in many anthologies on philosophy of mind and psychology.)

–––, 1986, ‘Advertisement for a Semantics for Psychology’, Midwest Studies in Philosophy(Volume X), P.A. French, et al. (eds.), Minneapolis: University of Minnesota Press, 615–678.

–––, 2002, ‘Searle's Arguments Against Cognitive Science’, in Preston and Bishop (eds.) 2002.

Boden, M., 1988, Computer Models of the Mind, Cambridge: Cambridge University Press; pp. 238–251 were excerpted and published as ‘Escaping from the Chinese Room’, in The Philosophy of Artificial Intelligence, ed M. A. Boden, New York: Oxford University Press, 1990.

Cam, P., 1990, ‘Searle on Strong AI’, Australasian Journal of Philosophy, 68: 103–8.

Chalmers, D., 1992, ‘Subsymbolic Computation and the Chinese Room’, in J. Dinsmore (ed.), The Symbolic and Connectionist Paradigms: Closing the Gap, Hillsdale, NJ: Lawrence Erlbaum.

–––, 1996, The Conscious Mind, Oxford: Oxford University Press.

–––, 1996a, “Does a Rock Implement Every Finite-State Automaton’, Synthese 108: 309–33.

–––, 1996b, ‘Minds, machines, and mathematics’, Psyche, 2: 11–20.

Churchland, P., 1985, ‘Reductionism, Qualia, and the Direct Introspection of Brain States’, The Journal of Philosophy, LXXXII: 8–28.

Churchland, P. and Churchland, P., 1990, ‘Could a machine think?’, Scientific American, 262(1): 32–37.

Clark, A., 1991, Microcognition: Philosophy, Cognitive Science, and Parallel Distributed Processing, Cambridge, MA: MIT Press.

Cole, D., 1984, ‘Thought and Thought Experiments’, Philosophical Studies, 45: 431–44.

–––, 1990, ‘ Functionalism and Inverted Spectra ’, Synthese, 82: 202–222.

–––, 1991a, ‘ Artificial Intelligence and Personal Identity’, Synthese, 88: 399–417.

–––, 1991b, ‘Artificial Minds: Cam on Searle’, Australasian Journal of Philosophy, 69: 329–33.

–––, 1994, ‘The Causal Powers of CPUs’, in E. Dietrich (ed.), Thinking Computers and Virtual Persons, New York: Academic Press

Cole, D. and Foelber, R., 1984, Contingent Materialism’, Pacific Philosophical Quarterly, 65(1): 74–85.

Copeland, J., 2002, ‘The Chinese Room from a Logical Point of View’, in Preston and Bishop (eds.) 2002, 104–122.

Crane, Tim., 1996, The Mechanical Mind: A Philosophical Introduction to Minds, Machines and Mental Representation, London: Penguin.

Davis, Lawrence, 2001, ‘Functionalism, the Brain, and Personal Identity’, Philosophical Studies, 102(3): 259–279.

Dennett, D., 1978, ‘Toward a Cognitive Theory of Consciousness’, in Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press.

–––, 1981, ‘Where am I?’ in Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press, pp. 310–323.

–––, 1987, ‘Fast Thinking’, in The Intentional Stance, Cambridge, MA: MIT Press, 324–337.

–––, 1997, ‘Consciousness in Humans and Robot Minds,’ in M. Ito, Y. Miyashita and E.T. Rolls (eds.), Cognition, computation, and consciousness, New York: Oxford University Press, pp. 17–29.

–––, 2013, Intuition Pumps and Other Tools for Thought, New York: W.W.Norton and Co.

Double, R., 1983, ‘Searle, Programs and Functionalism’, Nature and System, 5: 107–14.

Dretske, F. 1985, ‘Presidential Address’ (Central Division Meetings of the American Philosophical Association), Proceedings and Addresses of the American Philosophical Association, 59(1): 23–33.

Fodor, J., 1987, Psychosemantics, Cambridge, MA: MIT Press.

–––, 1991, ‘Yin and Yang in the Chinese Room’, in D. Rosenthal (ed.), The Nature of Mind, New York: Oxford University Press.

–––, 1992, A Theory of Content and other essays, Cambridge, MA: MIT Press.

–––, 2009, ‘Where is my Mind?’, London Review of Books, (31)3: 13–15.

Ford, J., 2010, ‘Helen Keller was never in a Chinese Room’, Minds and Machines, VOLUME: PAGES.

Gardiner, H., 1987, The Mind's New Science: A History of the Cognitive Revolution, New York: Basic Books.

Hanley, R., 1997, The Metaphysics of Star Trek, New York: Basic Books.

Harnad, S., 1989, ‘Minds, Machines and Searle’, Journal of Experimental and Theoretical Artificial Intelligence, 1: 5–25.

–––, 2002, ‘Minds, Machines, and Searle2: What's Right and Wrong about the Chinese Room Argument’, in Preston and Bishop (eds.) 2002, 294–307.

Haugeland, J., 2002, ‘Syntax, Semantics, Physics’, in Preston and Bishop (eds.) 2002, 379–392.

Hauser, L., 1997, ‘Searle's Chinese Box: Debunking the Chinese Room Argument’, Minds and Machines, 7: 199–226.

–––, 2002, ‘Nixin’ Goes to China’, in Preston and Bishop (eds.) 2002, 123–143.

Hayes, P., Harnad, S., Perlis, D. & Block, N., 1992, ‘Virtual Symposium on Virtual Mind’, Minds and Machines, 2(3): 217–238.

Hofstadter, D., 1981, ‘Reflections on Searle’, in Hofstadter and Dennett (eds.), The Mind's I, New York: Basic Books, pp. 373–382.

Horgan, T., 2013, ‘Original Intentionality is Phenomenal Intentionality’, The Monist 96: 232–251.

Hudetz, A., 2012, ‘General Anesthesia and Human Brain Connectivity’, Brain Connect, 2(6): 291–302.

Jackson, F., 1986, ‘What Mary Didn't Know’, Journal of Philosophy, LXXXIII: 291–5.

Kaernbach, C., 2005, ‘No Virtual Mind in the Chinese Room’, Journal of Consciousness Studies, 12(11): 31–42.

Kurzweil, R., 2000, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York: Penguin.

–––, 2002, ‘Locked in his Chinese Room’, in Richards 2002, 128–171.

Maloney, J., 1987, ‘The Right Stuff’, Synthese, 70: 349–72.

Maudlin, T., 1989, ‘Computation and Consciousness’, Journal of Philosophy, LXXXVI: 407–432.

Millikan, R., 1984, Language, Thought, and other Biological Categories, Cambridge, MA: MIT Press.

Moravec, H., 1999, Robot: Mere Machine to Transcendent Mind, New York: Oxford University Press.

Nute, D., 2011, ‘A Logical Hole the Chinese Room Avoids’, Minds and Machines, 21: 431–3; this is a reply to Shaffer 2009.

Penrose, R., 2002, ‘Consciousness, Computation, and the Chinese Room’ in Preston and Bishop (eds.) 2002, 226–249.

Pinker, S., 1997, How the Mind Works, New York: Norton.

Preston, J. and M. Bishop (eds.), 2002, Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, New York: Oxford University Press.

Pylyshyn, Z., 1980, Reply to Searle,Behavioral and Brain Sciences, 3.

Rapaport, W., 1984, ‘Searle's Experiments with Thought’, Philosophy of Science, 53: 271–9.

––– 2006, ”How Helen Keller Used Syntactic Semantics to Escape from a Chinese Room“, Minds and Machines, 16(4): 381–436.

Rey, G., 1986, ‘What's Really Going on in Searle's ”Chinese Room“’, Philosophical Studies, 50: 169–85.

–––, 2002, ‘Searle's Misunderstandings of Functionalism and Strong AI’, in Preston and Bishop (eds.) 2002, 201–225.

Richards, J. W. (ed.), 2002, Are We Spiritual Machines: Ray Kurzweil vs. the Critics of Strong AI, Seattle: Discovery Institute.

Rosenthal, D. (ed), 1991, The Nature of Mind, Oxford and NY: Oxford University Press.

Schank, R. and Abelson, R., 1977, Scripts, Plans, Goals, and Understanding, Hillsdale, NJ: Lawrence Erlbaum.

Schank, R. and P. Childers, 1985, The Cognitive Computer: On Language, Learning, and Artificial Intelligence, New York: Addison-Wesley.

Schweizer, P., 2012, ‘The Externalist Foundations of a Truly Total Turing Test’, Minds and Machines, 22: 191–212.

Searle, J., 1980, ‘Minds, Brains and Programs’, Behavioral and Brain Sciences, 3: 417–57 [Preprint available online]

–––, 1984, Minds, Brains and Science, Cambridge, MA: Harvard University Press.

–––, 1989, ‘Artificial Intelligence and the Chinese Room: An Exchange’, New York Review of Books, 36: 2 (February 16, 1989).

–––, 1990a, ‘Is the Brain's Mind a Computer Program?’, Scientific American, 262(1): 26–31.

–––, 1990b, ‘Presidential Address’, Proceedings and Addresses of the American Philosophical Association, 64: 21–37.

–––, 1998, ‘Do We Understand Consciousness?’ (Interview with Walter Freeman), Journal of Consciousness Studies, 6: 5–6.

–––, 1999, ‘The Chinese Room’, in R.A. Wilson and F. Keil (eds.), The MIT Encyclopedia of the Cognitive Sciences, Cambridge, MA: MIT Press.

–––, 2002a, ‘Twenty-one Years in the Chinese Room’, in Preston and Bishop (eds.) 2002, 51–69.

–––, 2002b, ‘The Problem of Consciousness’, in Consciousness and Language, Cambridge: Cambridge University Press, 7–17.

–––, 2010, ‘ Why Dualism (and Materialism) Fail to Account for Consciousness ’ in Lee, Richard E. (ed) Questioning Nineteenth Century Assumptions about Knowledge, III: Dualism. NY: SUNY Press.

Shaffer, M., 2009, ‘A Logical Hole in the Chinese Room’, Minds and Machines, 19(2): 229–235.

Sharvy, R., 1985, ‘It Ain't the Meat It's the Motion’, Inquiry, 26: 125–134.

Simon, H. and Eisenstadt, S., 2002, ‘A Chinese Room that Understands’, in Preston and Bishop (eds.) 2002, 95–108.

Sloman, A. and Croucher, M., 1980, ‘How to turn an information processor into an understanding’, Brain and Behavioral Sciences, 3: 447–8.

Sprevak, M., 2007, ‘Chinese Rooms and Program Portability’, British Journal for the Philosophy of Science, 58(4): 755–776.

Stampe, Dennis, 1977, ‘Towards a Causal Theory of Linguistic Representation’, in P. French, T. Uehling, H. Wettstein, (eds.) Contemporary Perspectives in the Philosophy of Language, (Midwest Studies in Philosophy, Volume 2), Minneapolis: University of Minnesota Press, pp. 42–63.

Thagard, P., 1986, ‘The Emergence of Meaning: An Escape from Searle's Chinese Room’, Behaviorism, 14: 139–46.

–––, 2013, ‘Thought Experiments Considered Harmful‘, Perspectives on Science, 21: 122–139.

Turing, A., 1948, ‘Intelligent Machinery: A Report’, London: National Physical Laboratory.

–––, 1950, ‘Computing Machinery and Intelligence’, Mind, 59: 433–460.

Weiss, T., 1990, ‘Closing the Chinese Room’, Ratio, 3: 165–81.

Поделиться статьей в социальных сетях: