Оглавление
"Китайская комната"
"Китайская комната", это эксперимент, предложенный в 1980 году американцем Джоном Серлем.[1] Он критически относился к идее создания "сильного искусственного интеллекта" и в этой связи предложил провести мысленный эксперимент. Смысл его заключался в следующем. Человека помещают в комнату, где находятся как бы корзины с китайскими иероглифами. У человека есть руководство (книга правил, компьютерная программа), согласно которому можно на определенный набор иероглифов, представляющий из себя вопрос на китайском языке, давать определенный набор иероглифов в качестве разумного ответа. Смысл теста в следующем. Действительно, можно разработать программу, которая будет на определенное сочетание иероглифов отвечать другим сочетанием, которое будет иметь какой-то смысл на китайском языке. Однако это не будет означать, что человек, сидящий в комнате, будет понимать китайский язык. Точно так же не будет понимать этот язык и программа, которая будет подбирать ответы.
Чуть-чуть в другой интерпретации тест выглядел следующим образом. Человек не знал китайского языка, но когда он слышал определенное сочетание звуков, то по определенным правилам отвечал на них. Говоривший с ним мог предположить, что его собеседник знает китайский язык, а тот на самом деле его не знал и "не понимал", что говорит на китайском языке.
Этот эксперимент представлял собой критику теста Тьюринга. Якобы тест выдержан, а машина при этом не обладала свойствами, приписываемыми интеллекту.
Мы как авторы данной работы в этом месте не можем удержаться и позволяем себе высказать следующие свои критические, хотя и дилетантские мысли в отношении "китайской комнаты". Серль в своем эксперименте выводит в какую-то самостоятельную субстанцию сознание человека. Его можно понять. Действительно, субъективно мы считаем, что у нас имеется сознание. Но что это такое на самом деле, сознание? Можно ли тут доверять нашим чувствам, которые понемногу, но одновременно повсюду нас обманывают? Может быть, на самом деле сознание – это не что иное, как появление феномена деления интеллекта?
Поясним свою мысль. Когда мы говорим о сознании, то имеем в виду собственную возможность наблюдать как бы со стороны за процессом обработки поступающей информации и принятием решения и при этом участвовать в принятии этого решения. Ну и что тут особенного? Многие полагают, что интеллект делится при этой операции на две части. Первая чисто механически обрабатывает информацию, поступающую, например, в виде речи, расчленяет ее, опознает отдельные элементы, выясняет, какая именно задача была поставлена говорящим. Потом анализирует задачу, зашифрованную в виде речи, решает ее и выдает решение, также предварительно зашифровав ее в человеческую речь. При этом речь может быть на любом языке (действительно, какая разница, как шифровать, лишь бы можно было расшифровать). А вторая часть интеллекта наблюдает за всем этим процессом, также анализирует его, обобщает и делает общие выводы о ходе расшифровки – анализа – принятия решения – зашифровки. Все эти операции вполне укладываются в компьютерное моделирование. Первая часть интеллекта выполняет механическую работу, и она, по Серлю, действительно не сознает, что делает. Однако вторая часть наблюдает за процессом со стороны, вот она и есть то самое загадочное человеческое сознание. И нет необходимости говорить о какой-то божественной и непостижимой субстанции под названием "сознание". Может быть, правы те, которые считают, что в нашем мозгу происходит лишь манипулирование синтаксисом?
Конечно, мы тут существенно упростили проблему. В частности, в данном случае мы не говорим о таком важном основании сознания, как разделение окружающего мира на "я" и на "все остальное". Однако, как представляется, в данном случае суть проблемы не сильно пострадала от всех упрощений.
Полагаем также, что это наше изложенное выше авторское предположение в целом перекликается с таким подходом создания искусственного интеллекта как многоагентная система.[2] В ее рамках взаимодействуют относительно самостоятельные элементы, называемые интеллектуальными агентами.
Когда человек отвечает по определенным правилам на набор звуков, которые на самом деле являются речью на китайском языке, он конечно "не понимает", что тоже говорит на китайском. Поначалу не понимает. Точно так же, как ребенок, еще не освоивший язык родителей. Но потом ребенок запоминает определенные сочетания звуков, ассоциирует их с каким-то реальным предметом ("мама", "еда", "игра" и т.д.) И начинает определенным образом отвечать. Как только ребенок освоит достаточное количество таких словосочетаний и поймет, чему именно они соответствуют, он с этого момента уже "знает" китайский язык. Сказать честно, тут не видно принципиальной разницы с машиной, тоже прошедшей этот путь. Разве что человек всячески дает понять, что он способен оценить в целом картину общения на определенном языке. Это и неудивительно, ведь мы оперируем не знаками, а целыми образами[3] и различными по сложности моделями. Потому-то у нас и возникает в виде зрительных или иных образов общая картина происходящего. [4] Если это так важно для решения вопроса о том, обладает машина интеллектом или нет, то можно и ее научить делать примерно то же самое. Скорее всего, для опытного программиста тут нет ничего немыслимо сложного.
Конечно, мы не единственные, кто критически относится к "китайской комнате". Обычно критики этого эксперимента говорят о том, что нужно было в совокупности рассматривать как саму комнату, так и человека, находящегося внутри, а вместе с ним и все правила игры и ее составные элементы (иероглифы). Тогда и получится совокупное понятие, которое могло бы претендовать на то, чтобы считаться носителем интеллекта.
Тут надо пояснить, что "китайская комната" предполагает, что существует самостоятельное понятие "семантика", отличное от понятия "синтаксис". Под семантикой обычно понимают правила определения поведения отдельных языковых конструкций.[5] Синтаксис, это строй связной речи. При этом выделяют учение о словосочетании и учение о предложении. Некоторые специалисты полагают, и, возможно, не без основания, что семантика как таковая не существует, что это искусственная конструкция, не отражающая реального положения вещей. Слово есть, а явления нет? Очень даже может быть.
[1] Searle, J. R. «Minds, Brains, and Programs», The Behavioral and Brain Sciences, vol. 3 (1980): pp. 417–424.
[2] Тарасов В.Б. От многоагентных систем к интеллектуальным организациям: философия, психология, информатика. – М.: Эдиториал УРСС, 2002. – 352 с.
[3] Кузнецов О.П. Быстрые процессы мозга и обработка образов. Новости искусственного интеллекта, 1998, №2.
[4] Можно говорить не о моделях, а о паттернах. Глубокое исследование на эту тему поводилось Л. Бобровниковым. См.: Бобровников Л. Молекулярно-биологические и физиологические основы нейросинергизма. М., 2005, с.81.
[5] Величковский Б.М. Когнитивная наука. Основы психологии познания. Т.2, М., 2006, с.139.