Приветствую Вас, Гость

Оглавление

Пути создания искусственного интеллекта

Авторы исходя из всех этих рассуждений создавали бы искусственный интеллект так. Сформулировали бы для начала набор привычных для нас стереотипов поведения. Если вдуматься, мы с вами часто ведем себя просто по стандарту. В этой части нас запросто могут копировать компьютеры. Например, человек беседует со своим другом, спрашивает его совета, идти или не идти в кино. Друг поинтересуется погодой. Если он уже знает, какая на дворе погода, то скажет, что хороший хозяин собаку из дома не выпустит. Поинтересуется, нравится ли спрашивающему его спутница. Ответит на это, что у него самого была похожая ситуация, а он предпочел девушке поездку к маме.

В общем, вариантов беседы много. Но на самом деле все это достаточно стандартные варианты поведения. Зафиксируйте их, введите в программу, свяжите использование того или иного элемента с определенной программой, и вот у нас уже четверть искусственного интеллекта. Но такой железный интеллектуал будет нам с вами при одинаковом вопросе всегда советовать одно и то же – идти в гости к маме.

Это не очень оригинальный путь. Собственно говоря, подобная идея впервые была громко сформулирована Аланом Тьюрингом, английским математиком, в середине прошлого века. Опять давайте вернемся к уже не раз упомянутому в данной книге эксперименту. Тьюринг предложил провести следующий тест: исследователь вступает в контакт с двумя собеседниками, причем в заочной форме, не видя их. Один из собеседников – человек, а другой – машина. Если машина сможет убедить исследователя, что именно она является человеком, значит она обладает какой-то формой искусственного интеллекта, близкого человеческому.[1]

Этот опыт предполагает, что интеллект имеет внешние проявления, и именно по ним мы и выносим суждение, имеем ли мы дело действительно с интеллектом или нет. Хотя точно так же понятно, что разумное поведение и интеллект – это не одно и то же. Например, человек ничего не делает, а просто размышляет. Окружающие не могут судить, есть у него интеллект или нет, это ясно только ему самому. Однако отсутствие в такой ситуации поведения человека явно не означает, что он не обладает интеллектом, просто его проявления в данном случае отсутствуют.

Тьюринг предлагал при этом разделить задачу на две части. В жизни мы видим, как именно формируется человеческий интеллект. Сначала возникает детский интеллект, который имеет качества, заданные от рождения.[2] Затем мы начинаем учить ребенка. И делаем это много лет, прежде чем тот превратится во взрослого носителя развитого интеллекта. Тьюринг также предлагал идти похожим путем. Сначала создать хоть какой-то искусственный интеллект. Самое главное, чтобы он обладал качеством ребенка обучаться и совершенствоваться. А затем уже можно было бы этот интеллект учить. Например, можно было бы разработать программу, которая и обеспечивала бы самообучение и накопление знаний.

Нужно отметить, что в настоящее время подавляющее большинство систем искусственного интеллекта построены, в сущности, именно по этой схеме. В результате удается решить задачу создания большой базы данных (не формировать ее в самом начале, а собирать постепенно), адаптации, накопления опыта работы.   

Разновидностей внешних проявлений интеллекта достаточно много. Но тут нужно выделить устную речь, письменность. Они – это еще не интеллект. Но именно они являются его наиболее яркими внешними проявлениями. Интеллект формируется, как принято полагать, в нашей голове. Но его обязательная составляющая – это разумное поведение.

Итак, интеллект и его внешние проявления в виде поведения – это не одно и то же. Это первый важный вывод. Но есть и второй, не менее важный, хотя не столь очевидный. Если мы не видим внешних проявлений интеллекта – это еще не значит, что его носитель не присутствует рядом с нами. Более подробно этой стороне проблемы посвящен специальный раздел книги. 

Однако вернемся к более прозаическим проявлениям интеллекта. В настоящее время в сети Интернет можно достаточно часто встретить программы, имитирующие человека. Вы вступаете в переписку, искреннее полагая, что общаетесь с живым человеком. На самом же деле вам отвечает программа (робот), настроенная определенным образом. К таким роботам нередко прибегают знаменитости. Их сайты посещают многие люди, со всеми невозможно вступить в живой контакт. Вот вместо человека беседу и ведет робот. И далеко не всегда его собеседник догадывается, с кем именно он только что переписывался.  

Можно предложить и более усложненный вариант искусственного интеллекта - использовать программу копирования (самообучения). Машина не просто слышит ваш вопрос. Она еще наблюдает за вами со стороны и накапливает (копирует) опыт вашего живого общения с другими людьми. Когда к вам обращен вопрос другого человека, она запоминает ваш ответ. Это значит, что один раз робот, беседуя с вами, посоветует вам пойти, например, в гости к маме. А в другой раз, уже учтя полученный опыт, примерно в той же ситуации ответит по-другому. В бытовом плане мы с вами такого робота уже можем считать живым существом или искусственным интеллектом, пусть и несовершенным. Кстати, все элементы такого поведения уже сейчас в определенной мере технически осуществимы. Распознавать речь и воспроизводить ее. Узнавать людей и запоминать адресованные им вопросы и полученные ответы. Самообучающийся робот, накапливающий информацию об окружающей его среде и способный использовать полученный опыт в общении с человеком, – это уже очень много. По мнению авторов, это уже, по сути, искусственный интеллект.

Кстати, мы сами в юном возрасте во многом именно с использованием подобных приемов и учимся себя вести, общаться с другими людьми. Потом взрослые изумляются, какие у них замечательные и смешные чада: в возрасте до пяти лет пытаются ввернуть фразу, которую услышали при подобных же, как им кажется, обстоятельствах в беседе у взрослых. Фраза нередко звучит забавно, ведь она была произнесена взрослым человеком в определенной ситуации, которая не была до конца понята ребенком. А фразу он запомнил именно в том виде, как она была сказана.

Важный элемент человеческого – это построение моделей поведения. Причем не только собственного поведения. Мы часто внушаем детям, что обманывать нехорошо. Однако за обманом скрывается определенный этап развития детского интеллекта. Мы не с рождения способны строить модели поведения. Сначала учимся собственному поведению. Потом наступает этап, когда ребенок начинает строить модели поведения других людей. Внешне это проявляется в том, что дети начинают лгать. Врать нехорошо, однако вранье – это показатель, что ребенок начинает вычислять, каким именно образом будет вести себя другой человек в зависимости от того, что именно ему сказать.

Способна ли машина строить модели поведения человека или других носителей интеллекта? До сих пор считалось, что это только человеческое качество. Однако если исходить из того, что человек – это не какое-то волшебное непостижимое создание, а лишь своеобразная биологическая "машина", то такое свойство должно быть воспроизводимо. Вообще такое качество нередко описывается как "theory of mind”. То есть способность "войти" в психику другого человека и представить, что он в этот момент думает о вас, об окружающем мире и т.д., и подстроить свое поведение под него. Такое свойство является, надо полагать, основой успешной коммуникации между людьми.

Можно зайти к решению проблемы искусственного интеллекта еще с одной стороны. А что если создать механизм, который имитировал бы свободу воли? Точнее сказать, так влиял бы на принятие решений, чтобы окончательный результат зависел от изменения мельчайших и практически не различимых причин? Если человек не сможет проследить причинно-следственную связь в механизме принятия решений, то существо, использующее такой механизм и поддерживающее свое существование, по всем человеческим меркам должно считаться живым. Если же результаты его поведения имеют какой-то дополнительный смысл, помимо просто поддержания существования, то уже можно претендовать и на искусственный интеллект. Это предположение в значительной степени перекликается с таким направлением создания искусственного интеллекта, как адаптивное управление. Именно оно предполагает возможность изменения параметров регулятора в зависимости от внешних возмущений.

В этом рассуждении авторы допустили неточности. Сказали об имитации свободы воли. Это умышленное допущение. По нашему авторскому мнению, никакой свободы воли нет и не было никогда. Но ведь тут речь идет не просто об искусственном интеллекте, а о создании искусственного интеллекта человеком. И это большая разница. Если такой интеллект создает человек, то он должен при этом ориентироваться на привычные для него ценности. Для нас привычным является ощущение свободы воли. Хотя это ощущение, надо полагать, не соответствует действительности.

Поэтому авторы и говорят об имитации свободы воли. Такое задание будет понятным инженеру. А давать ему задание создавать механизм, воспроизводящий несуществующую свободу воли, – это явно претендовать на то, что инженер в результате ничего путного не создаст. Собственно говоря, именно так сейчас и обстоят дела по многим направлениям создания искусственного интеллекта. Заказчик хочет видеть аналог человека. Но при этом исходит из философских, психологических, в целом биологических установок, которые могут быть ошибочны в самой своей основе. Такой заказчик хочет видеть в машине проявления свободы воли, хочет, чтобы была воспроизведена мысль, сознание, разум, эмоции. То есть оперирует категориями, которые, скорее всего, неверны, являются следствием нашей собственной ошибочной субъективной оценки человека и его интеллекта.

Итак, механизм имитации свободы воли. Точнее сказать, механизм, ставящий процесс восприятия информации, ее обработки и принятия решения в зависимость от мельчайших и неуловимых факторов. Как мы уже отмечали, не исключено, что у человека (и всех живых существ вместе с ним) процесс обработки информации – это многократное отражение, когда каждый новый отраженный результат (образ) по своей природе отличается от оригинала. Конечно, в процессе такого отражения самые мелкие детали могут сыграть решающую роль. Однако подобный механизм, похоже, пока будет сложно создать. Он предполагает, что после каждого этапа обработки информации будет создаваться отражение (образ), но не всегда точное, может быть, обобщенное, может быть переданное с использованием знаков, имеющих иную природу, чем оригинал. То есть нужна программа обобщения основных признаков и отсеивания второстепенных. Программа разложения на отдельные признаки, их оценки по значимости и отсева всего того, что не является значительным. Наверное, это уже сейчас технически выполнимая, хотя и сложная задача. В этом направлении идут специалисты, создающие программы распознавания речи, образов, машинные переводчики.

Но такая программа должна всегда давать рациональный результат. Поясним эту мысль. Например, если речь идет об информации, описывающей уже встречавшийся нам выше кувшин. Такая информация может как угодно обрабатываться, изменяться и обобщаться. В результате кувшин может превратиться в емкость для воды или вина, в рисунок кувшина, наконец, в стакан. Или его можно спутать с поленом. Но эта информация никогда не должна превращаться в бессмысленный набор знаков, которые ведут к тому, что на экране появляется слово "ошибка". Все программы по обработке информации должны быть направлены на то, что если получается такой ошибочный результат, надо отсчитывать ситуацию назад (откат), вплоть до первого рационального отражения. Или до второго, какая разница. И обеспечивать, чтобы обрабатываемый результат был всегда рациональным, пусть даже не отражающим исходный образец. Пусть кувшин покажется искусственному человеку поленом. Или он сделает обобщение, что это часть погоды. В таком случае это будет более или менее серьезное заблуждение, что характерно и для человека. Но не фатальная ошибка и остановка процесса обработки информации.

В чем-то это авторское предположение перекликается с определенным этапом совершенствования искусственных нейронных сетей. После первых успехов в создании таких сетей исследователи столкнулись с ограничениями в их использовании. В результате, в частности, был разработан алгоритм обратного распространения ошибки, существенно расширивший возможности нейронных сетей.

Когда информация обрабатывается в нашей с вами голове, воздействие мельчайших, просто неизмеримых, но посторонних факторов может произойти, судя по всему, на любом этапе. Несмотря на это воздействие, наш с вами мозг удерживает рациональный результат, не допуская системного сбоя. Пусть даже этот результат является заблуждением, то есть он неправилен, не отражает действительность и не позволяет совершать поступки, соответствующие объективной обстановке.

Не факт, что современные знания, касающиеся обработки информации машинами, позволяют нам обеспечить такой рациональный результат, несмотря на возникновение и воздействие посторонних факторов на любом этапе. Да и нужно ли это для того, чтобы создать простейший образец искусственного интеллекта? Создадим для начала что-то простое, а потом уже будем думать о сложном.

Может быть, упростить себе задачу и выбрать такой этап обработки информации, где мелкие факторы могут быть наиболее безболезненно учтены? Вообще, есть такой этап? Наверное, имеет смысл обратить внимание на этап ввода информации. Кое-что мы уже сейчас с вами используем, не придавая, однако этому глубокого философского смысла. Например, дети играют в компьютерные игры, используя не клавиатуру, а джойстики. От мельчайшего позиционирования джойстика зависит результат. Причем иногда сильно зависит. Чуть-чуть вправо, и мы промахнулись, враг нас застрелил, а мы в него не попали. А если чуть-чуть влево, то наоборот, мы уничтожили врага и стали победителем игры. Такая игра нас захватывает, возбуждает в нас азарт, причем именно потому, что мы имеем дело фактически с искусственным интеллектом.

Конечно, опытный игрок хорошо чувствует это "чуть-чуть" в положении джойстика. И вполне может предсказать результат. Если может предсказать, то есть способен проследить причинно-следственную связь, то по его меркам это уже не живое существо и никакой не интеллект, а просто машина. Однако понятно, что джойстик можно отрегулировать в одну минуту так, что никакой профессионал не сможет понять, где что кончается, а где начинается. Если такую тонкую регулировку совместить с принятием сложного решения, где грань того или иного воздействия крайне тонка, то имитация может показаться очень даже живой.

Еще один пример из жизни – машинки, двигающиеся от силы электродвигателя, который контактирует с железным полом и железной сеткой вместо потолка. Потенциал снимается соответственно пантографом и железными колесами. Мы все видели такой аттракцион в почти любом парке развлечений. Один или два пассажира садятся в машинку, жмут на педаль, и аппарат движется с довольно приличной скоростью. Рядом едут другие участники аттракциона на своих машинках. Дальше самое интересное. Крутишь руль налево, и машина тоже поворачивает налево. Или крутишь направо и едешь направо. Но изобретатели этого развлечения придумали нехитрый, но по-своему гениальный трюк. Если продолжать крутить руль налево (направо), то машина вместо того, чтобы все более круто поворачивать налево (направо), вдруг начинает поворачивать в прямо противоположную сторону. Нарушается привычная нам причинно-следственная связь. Обычно мы привыкли к тому, что если руль налево, то и машина налево. А тут она сначала налево, а потом вдруг направо, и уловить момент изменения поведения достаточно сложно.

Результат довольно интересен – машинка превращается в самостоятельное существо, которое едет туда, куда хочет, а не туда, куда хотите вы. Результат вас веселит, тем более, что итогом такого своевольства бывает забавное столкновение с точно так же взбунтовавшейся соседней машиной.

Но главное, что тут развлекает, – это как бы превращение неживого существа в живое. Ну, пусть не для всех главное. Для кого – философская свобода воли, а для кого – просто развлечение. Но согласитесь, этот элемент не зря введен в программу аттракциона. Он создает иллюзию самостоятельного поведения машины.

А почему, собственно говоря, иллюзию? Да, только потому, что мы хоть и не можем уловить момент, когда руль начинает поворачивать машину не вправо, а влево, но понимаем механизм этого изменения. Мы способны умозрительно понять причинно-следственную связь и после первого изумления все-таки исключаем машину из списка живых существ. Хотя развлечение представляется нам неожиданным и вызывающим ассоциации с бунтом машин.

Однако ясно, что и в этом случае можно усложнить переход от одного алгоритма к другому и немного его запутать. По сути, это довольно простая техническая задача. Если ее поставить, то обычная машина для развлечений покажется нам еще более живой. Почти искусственный интеллект!

А что если с таким же критерием подойти к вычислительной машине? Тут перспективы будут намного более интересными. И точно так же обратить внимание именно на этап ввода информации. Сейчас это либо клавиатура, либо цифровая запись. И то, и другое – это довольно сложное скопище знаков и цифр (символов), тем не менее они все расположены по системе и в принципе могут быть сосчитаны. Более того, можно создать точно такой же цифровой массив. Это значит, что можно в точности повторять стартовую информацию. Следовательно, если существует жесткая связь между причиной и следствием (а она существует, куда бы ей деться), то можно точно предсказать, какой получится результат. Какой уж тут искусственный интеллект или подобие живого существа!

Есть, однако, и другие способы ввода информации, например, уже упоминавшийся джойстик. И не только он. Машина распознает рукописный текст, может понять человеческую речь, хотя пока с серьезными ограничениями. Конечно, тут ограничения еще слишком значительны. Однако ясно, что проблема чисто техническая и будет в конце концов решена. Машины будут в точности понимать человеческую речь.

 А может, и не надо в точности? Давайте представим себе следующую беседу двух простых людей:

- Как дела?

- Ничего, а у тебя?

- Проблемы есть всегда. Сходил в ресторан, оставил триста долларов. А в результате болел живот.

- Я уже давно готовлю и ем только дома. Эти ресторанщики совсем обалдели.

- Где будешь отдыхать в отпуск?

- На даче, на юг ехать нет денег.

- Ну, пока, привет семье.

Согласитесь, это самый обычный бытовой диалог. И читатель, надо полагать, согласится, что любого из участников этой беседы мы с вами запросто можем записать в живые существа, наделенные интеллектом. Если машина сможет таким образом поговорить с нами, то мы будем удовлетворены этим в полной мере и будем, наверное, готовы, принять ее за собеседника, равного по уму если не профессору, то соседу по дому, это уж точно.

На самом деле в этой беседе нет ничего такого уж очень особенного, что недоступно машине. Сначала обычное приветствие, таких есть несколько вариантов, все они известны. Потому ответ, сопровождаемый встречным вопросом, тоже в пределах разумного числа определенных вариантов. Так может ответить и машина, ничего особенного.

Общее замечание о наличии проблем. Само по себе – вполне стандартный вариант в беседе. Немного с философским оттенком. Его особенность в том, что собеседник готов поделиться проблемами. Либо готов, либо нет, тоже в пределах стандарта. Звучит естественно, так как совпадает по оттенку с общим небрежно-дружественным характером беседы.

Дальше про ресторан и триста долларов. С информационной точки зрения очень простое сообщение – поход в точку питания и стоимость. Особенность в том, что так делают только люди. Именно они изобрели рестораны и тратят там доллары. Есть как бы недосказанный и понятный элемент, что триста долларов – это немного дорого, за такие деньги можно получить что-то особо хорошее. Конечно, как известно, пока компьютеры не ходят в рестораны и доллары не тратят. Но этот элемент беседы не несет какой-то особой интеллектуальной нагрузки. Просто одни питаются электричеством, а другие – рыбой. Одни жалуются на плохого повара, другие могут быть недовольны перебоями в подаче электричества и нестабильной частотой тока. В беседе можно пожаловаться, в том числе, и на такие свои проблемы, которых у других нет. Это будет, в общем-то, понятно и допустимо. Беседа немного не в русле проблем, которые есть у собеседника. Но это тоже укладывается в рамки беседы двух носителей разума.

Дальше замечание про результат похода в ресторан – болел живот. Это предполагает плохое обслуживание за хорошие деньги. Особенность этой фразы в том, что она довольно лаконична, но передает гамму чувств – недовольство дороговизной, возмущение некачественной пищей. Особый оборот речи. Собеседник мог бы сказать длиннее - дорого, можно было бы ожидать хорошего обслуживания. Но вместо хорошего получил плохое, в частности, в отношении свежести поданной пищи. Тут надо отметить, что живые люди тоже не с неба берут такие фразы. Они запоминают определенное множество комбинаций и более или менее удачно применяют их в ситуациях, когда полагают, что это уместно. Конечно, в таком случае присутствует тонкая оценка обстановки и собеседника. Наверное, машина еще долго так не сможет. Ну, а если без тонких оценок, а только суть дела, пусть многословно? Да тоже сойдет за живого собеседника. Например, иностранец не понимает многих тонкостей языка и местные особенности быта аборигенов. В результате изъясняется ломаными фразами и часто невпопад. Ну и что? Что, он после этого утрачивает право называться человеком?

В нашем диалоге другой собеседник отвечает, что давно готовит дома и дает характеристику повару и другим лицам в ресторане с помощью жаргонных выражений. Во-первых, есть связь с фразой другого лица. Тот пожаловался на ресторан. Этот поддержал жалобу. Мог, наоборот, возразить, что надо ходить в проверенные рестораны. Или промолчать, скривив рот. Все эти ответы – в пределах разумного числа стандартов. Использование жаргона предполагает правильную оценку характера беседы. Если собеседник ошибется с такой оценкой, его слова будут звучать смешно или невпопад. Но, заметим себе, не будут выглядеть как что-то нехарактерное для живых людей. Конечно, тут опять присутствует краткость изложения и при этом значительное смысловое содержание. Но мы с вами уже выяснили, что такая краткость – не препятствие. Можно и многословно изложить все нюансы, которые иначе просто предполагаются. От этого беседа не превратиться в разговор живого с неживым.

Дальше переход на другую тему. Тут оценка предыдущей части беседы. Собеседник счел, что предыдущая тема исчерпана. Казалось бы, вот элемент свободного выбора, характерного только для людей. Но если вдуматься, то это не так. Человек оценивает, хочет ли он поддерживать обсуждение ресторанов. Если богатый и ходит часто, то будет поддерживать. Если бедный и имеет зарплату всего триста долларов в месяц, то не будет. То есть имеются различные объективные критерии, которые можно использовать для решения вопроса, поддерживать ли дальше затронутую тему или нет. Еще есть оценка, хочет ли другая сторона дальше говорить на тему общепита. Но тут мы часто поступаем эгоистично, считаемся только со своими интересами и ведем беседу так, чтобы было приятно нам самим, а не собеседнику. Так что можно обойтись и собственной оценкой. Но если есть возможность оценить, насколько тема интересна для другого лица, и если есть желание сделать ему приятное, то можно учесть и этот фактор. Тоже ничего непостижимого в этом нет. Оценка другого лица может вестись по широкому спектру факторов (интонация, мимика, построение фраз, жестикуляция, общая обстановка беседы). Но можно выбрать и один критерий, например, только мимика. Это всего три десятка мышц. Вполне постижимо для машины. И если машина будет таким образом оценивать другого человека, то это придаст беседе очень даже живой характер.

Про отпуск – это тоже особенности жизни именно человека. Машина может спросить не про отпуск, а про что-то более близкое и ей, и человеку. Например, про то, как тот решает кроссворды, успешно или по-прежнему нет. И такая беседа тоже вполне сойдет за диалог двух живых существ. У одного образ жизни – это отпуск и деньги, у другого – что-то иное, например, сложности с кремниевыми кристаллами и их воспроизводством. Жалобы на плохую дикцию некоторых собеседников. Можно и другие темы найти, которые будут понятны и людям, и машинам.

Дальше одна из стандартных фраз при прощании, и на этом беседа завершилась. Собеседники разошлись. А мы с вами убедились, что ничего непостижимого в таких беседах нет. Набор стандартных фраз и оборотов. Оценка характера беседы и настроения собеседника. Тоже в принципе вполне постижимо для машины. Такая оценка возможна по характеру построения фраз (использование разговорных оборотов или строгая служебная речь, лаконичность или пространное объяснение, тон – высокий и нервный или спокойный и размеренный). Настроение, как мы уже отметили, вполне может быть оценено по мимике, ничего немыслимо сложного. Оценка по иным критериям, когда можно сменить тему беседы. Выбор, какая должна быть новая тема. Наверное, та, которая больше заботит. Способна ли машина оценить, по каким вопросам у нее проблемы, а по каким – нет? Наверное, где у нее результат не получается сразу, где надо искать решение с использованием широкого круга вариантов, там и проблема. В этом случае, конечно, должна присутствовать оценка, насколько эта проблема понятна для человека.

Короче, для поддержания беседы, подобной той, которую мы описали, вполне можно использовать вычислительную машину. Надо лишь написать программы, содержащие определенные алгоритмы. Создать периферию (воспроизведение и восприятие речи, восприятие лица и его мимики – даже этого будет для начала достаточно). Вполне посильная с технической точки зрения задача, даже сейчас. Если же еще будет программа, запоминающая, как себя ведет собеседник в той или иной ситуации, то такой машине уже цены не будет. Она просто будет имитировать чужой интеллект. Да и почему имитировать? Мы и сами нередко не слишком напрягаем свой интеллект и ограничиваемся вполне стандартным поведением и речью, не несущими особой интеллектуальной нагрузки. Просто часто такие действия сопровождаются точной оценкой специфичной для человека ситуации, оценкой собственных и предполагаемых чужих интересов, и не более того. 

Другой подход к имитации машиной свободы воли – это особенности ввода информации. В очередной раз оговоримся, что используем термин "имитация" не потому, что у нас с вами какая-то непостижимая свобода мыслей и поступков, а машины могут только их повторять. Скорее всего, и у нас с вами есть заложенный алгоритм поведения. И речь идет о воссоздании части этого алгоритма, а может быть, и о полном его воспроизведении у машин. То есть имитация интеллекта предполагает, что речь идет о создании этого самого интеллекта. А поскольку в таком случае интеллект будет создан человеком, то можно именовать его искусственным интеллектом.

У живых организмов обработка информации идет сложным и запутанным путем в силу самого строения живой материи. Так, может быть, на вводе исходной информации в машину нужно также предусмотреть механизм, который будет реагировать на какие-то дополнительные обстоятельства и изменять порядок обработки информации? Один такой вариант мы уже только что упомянули: машина оценивает мимику человека, а также общие условия беседы (деловая, бытовая, небрежная, научно-точная) и в зависимости от этого использует тот или иной путь дальнейшей работы с информацией.

Можно ввести и воздействие просто случайных факторов. В конце концов, у человека случайность также влияет на ход событий. Например, учет точной температуры окружающей среды, расстояние до лица, с которым идет беседа. Да мало ли что еще можно тут учесть! Также просится генератор случайных чисел. Его участие в первичной обработке информации уж точно все запутает так же, как и в живом организме.

Ясно, что такое "запутывание" не должно вести к иррациональному результату. После этой стадии машина должна иметь все-таки какую-то разумно логичную информацию, а не выдавать сообщение об ошибке. Как этого добиться? Наверное, несмотря на всю нашу свободу воли, мы все-таки действуем в рамках определенных шаблонов и стандартов. Они многочисленны, просто огромны. Но их число в конечном итоге все-таки ограниченно. Это значит, что их все (или часть) можно описать и предусмотреть в соответствующей программе. Или пойти другим путем и создать программу, которая позволяла бы машине самостоятельно обрабатывать встречающиеся ей ситуации и накапливать эти самые варианты. То есть самообучаться.

Если машина обрабатывает человеческую речь и "не расслышала" слово или фразу, то можно запрограммировать ее так, чтобы она либо переспрашивала, что самое простое, либо оценивала характер беседы и подбирала слова, наиболее подходящие для сложившейся ситуации и совпадающие с той частью, которая все-таки была услышана и понята. Да мы и сами так делаем каждый день. Если не расслышали, переспрашиваем. Но не всегда. Иногда нам кажется, что мы поняли, о чем идет речь. Хотя расслышали и поняли только часть чужой фразы. Мы из этого своего понимания и строим свой ответ. Иногда он получается впопад, и мы рады, что не пришлось переспрашивать и слышать в ответ: "Глухая тетеря!" Иногда же так не выходит, и мы именно невпопад и отвечаем, чем смешим или злим собеседника. Тогда уж кличка «глухой тетери» нам точно обеспечена. Но согласитесь, именно такая беседа и будет в наибольшей мере соответствовать понимаемому нами образу общения между живыми существами или иными носителями интеллекта. Пусть машина ошибется. Нам такие ошибки понятны. Мы и сами именно так сплошь и рядом ошибаемся. Тут нам точно будет казаться, что мы общаемся с живым существом.

Вы возразите, что так не будет. Ведь мы будем заранее знать, что машина железная, неживая, что, хотя она по всем внешним признакам ведет беседу как живой человек, однако на самом деле все это – результат хитроумных построений программистов. Тут везде одна причина вызывает одно следствие, а невозможность проследить эту причинно-следственную связь не означает, что ее вообще нет. А раз нет свободы воли, то какой уж тут искусственный интеллект?!

Все так и одновременно не так. Мы поначалу именно подобным образом и будем воспринимать такой искусственный интеллект. Как игрушку Фарби, которая шевелит ушами, урчит от удовольствия, когда ее гладят, и жалуется, если ее перевернут. Она же неживая, всего лишь хитроумная имитация, это все понимают. Однако тут есть два обстоятельства. Первое – это то, что определенной части человечества наплевать, живое перед ней существо или нет. Если такое существо может играть в шахматы, а тем более поддержать светскую беседу да еще подсказать что-то путное, то пусть такая машина считается формально неживой. Она все равно полезная, значит имеет право на существование. А если неживая, то ее к тому же можно выключить или вовсе сломать, и это не будет считаться убийством. Ее можно эксплуатировать днем и ночью, и это не будет считаться использованием рабского труда. Так что неживая с такой точки зрения – это не недостаток, а преимущество.

Второе – это то, что мы все свои умозрительные построения, расчеты и предположения проверяем одним универсальным средством – опытом. Только опыт покажет, правильно ли человечество считало такие машины, обладавшие интеллектом, неживыми или нет. Авторы имеют в виду, что в конечном итоге машины - носители такого интеллекта сами создадут ситуацию, когда с ними придется считаться как с живыми существами. Вот тогда и выяснится, у кого имеется свобода воли, а у кого ее нет. И кто является носителем интеллекта, а кто – нет. Еще очень не известно, как машины отнесутся к человеку. Как к Богу или как к предельно несовершенной машине, не способной конкурировать с силиконово-железными созданиями ни по одному существенному параметру. Собственно говоря, именно так оно в конечном итоге и будет, и не может быть иначе. Наши возможности известны, и они достаточно ограничены. А искусственный интеллект и периферийные устройства (грубо говоря, руки и ноги машины) могут совершенствоваться без конца, тут нет никаких ограничений типа задачи на конечное самоуничтожение, которой снабжены мы с вами.

 



[1] Turing, A M. «Computing Machinery and Intelligence», Mind,  vol. 59 (1950): pp. 433–460.

[2] Иногда такие знан