arrow-downcheckdocdocxfbflowerjpgmailnoarticlesnoresultpdfsearchsoundtwvkxlsxlsxyoutubezipTelegram
Пролегомены
ко всякому будущему интеллекту, могущему появиться как искусственный
Текст подготовили: Антон Кузнецов, Евгений Логинов, Андрей Мерцалов, Алексей Воронин, Кирилл Крюков, Юлия Чугайнова и Александр Басов
Художник:   Дарья Обухова

Искусственный интеллект (ИИ) — это громадная научная область, лишь небольшая часть которой является собственно философской. Исследования ИИ принадлежат computer science, где философы по большей части представлены логиками. Если вы наберёте в Стэндфордской энциклопедии словосочетание «Artificial intelligence», то в единственной статье, которая содержит в названии данный термин, «Artificial intelligence and logic», сможете найти упоминание всего четырёх «чистых» философов: Деннета, Фодора, Куайна и Рассела. Это свидетельствует о том, что философская и научная области в данном вопросе почти не пересекаются. Для computer science «искусственный интеллект» — это задача по эмулированию различных когнитивных способностей человека: визуального восприятия, обучения, мышления и так далее (о научной стороне проблемы читайте статью Ивана Позднякова). Мы, философы, не говорим ученым, куда именно вставлять электрод или как правильно провести калибровку. Наш интерес связан с предельными основаниями, с парадигмальными установками.

Тест Тьюринга

В привычном нам виде философская проблематика ИИ впервые была чётко обозначена Аланом Тьюрингом («Вычислительные машины и разум», 1950). Общий вопрос о мышлении машин конкретизируется им: каков критерий разумности? Иными словами, как нам определить, мыслит ли машина, да и откуда мы вообще знаем, что мыслит хоть кто-либо? Единственным надёжным критерием разумности оказывается речевое поведение. На нём и построен Тест Тьюринга (ТТ). Для чистоты эксперимента (чтобы нас не сбивал с толку внешний вид «собеседника» и т.п.) создадим, насколько это возможно, формат «чистой» коммуникации (что позволяют сделать условия общения в чате). Если в такой беседе речевое поведение «собеседника» экзаменатор расценит как «разумное», если в нём собеседник продемонстрирует языковую компетенцию, то, будь это машина или человек, в соответствии с критерием мы признаем его мыслящим. Понятно, что речь, которая одному может показаться разумной, другому предстанет бессвязным набором слов, да и простые ошибки здесь не исключены. Чтобы нивелировать такие разногласия экзаменаторов, вердикт о разумности собеседника выносится на основании процентной доли доверившихся. Пока что ни одной машине не удалось убедить в своей разумности большинство, однако статистически значимый порог в 30% уже преодолён некоторыми программами. То ли ещё будет! Сам Тьюринг был абсолютно убежден, что технологический прогресс позволит создать по-настоящему мыслящие машины — такие, чьи результаты в ТТ не будут ниже тех, что получает человек.

Для программистов и логиков работа Тьюринга поставила ряд амбициозных технических задач, но остроту в философской среде проблема получила позднее, с появлением компьютерной метафоры в философии сознания. Ее появлению мы обязаны Хилари Патнэму, который выдвинул тезис множественной реализации: состояния сознания могут быть реализованы на разных материальных носителях, так же как и компьютерные алгоритмы. Китайская комната

В 1980 г. Джон Сёрл предложил аргумент, который до сих пор находится в центре внимания философии ИИ. Тьюринг допустил, что мы и есть сложные машины для вычислений, и Сёрл принял вызов: а давайте человек, о котором мы точно знаем, что он сознателен, сядет в комнату, но будет вести себя не как человек, а как машина, а именно — манипулировать символами. Я сижу в закрытой комнате с русскоязычной инструкцией по манипулированию китайскими символами. Я не знаю китайского и не смогу отличить иероглиф от простой закорючки. От экзаменаторов в комнату приходят сообщения по-китайски, и я, следуя правилам, на иероглиф А отвечаю иероглифом В. Предположим, что инструкция написана так, что я могу составить ответ на любой заданный вопрос. Тогда комната пройдет ТТ, но я ничего не пойму. Значит, ни о каком понимании у машин речи быть не может. Общий вывод Сёрла: синтаксиса недостаточно для семантики, а значит, ИИ невозможен. За 20 лет до аргумента Сёрла советский физик и писатель-фантаст Анатолий Днепров опубликовал рассказ «Игра», где с изя­ществом предвосхитил выводы Сёрла. Читайте об этом в статье Артёма Беседина.

Системное возражение

Можно возразить: да, я не понимаю, но вся комната понимает. Сёрл даст простой ответ. Суждение «я и бумага, на которой написаны инструкции, понимаем» — контринтуитивно. В бумаге нет ничего, что могло бы понимать. Кроме того, я могу просто зазубрить всю «книгу правил» и выйти из комнаты в чисто поле. Я и в таком случае пройду ТТ, и всё равно ничего не пойму.

Светящаяся комната

Перенесёмся в 1894 год, когда Дж. Максвелл уже открыл, что свет — это электромагнитные волны, но еще не обрёл признания. Согласно его идее, если человек в тёмной-тёмной комнате начнёт перемещать магнит вверх-вниз, от магнита начнут распространяться электромагнитные волны, и в комнате станет светлее. «Но позвольте, — могли бы возразить мы ему, — в комнате совершенно темно!» Мы даже могли бы формализовать наше возражение: (1) Электричество и магнетизм суть физические силы; (2) Существенное свойство света — свечение; (3) Эти силы сами по себе не являются сущностью свечения. А это значит, что электричество и магнетизм не являются сущностью света и недостаточны для его наличия. Такое возражение, утверждают Пол и Патрисия Чёрчленды, по форме было бы идентично сёрловскому: (1) Компьютерные программы — это формальные (синтаксические) объекты; (2) Человеческий разум обладает смысловым содержанием (семантикой); (3) Синтаксис сам по себе не является сущностью семантики и его не достаточно для семантики. Согласно Сёрлу, это значит, что программы не являются сущностью разума и их наличия не достаточно для существования разума. Вывод, который делает Сёрл, столь же абсурден, что и возражения Максвеллу. В обоих случаях предпосылка (3) интуитивно выглядит правдоподобной, хотя является ложной. У Сёрла, утверждают они, нет достаточных оснований настаивать, что определённое манипулирование символами не сможет породить семантики, и он просто спекулирует на том, что мы пока недостаточно знаем биологические основания сознания.

Аргумент от объективности реализации

Аналогичный аргумент, демонстрирующий некорректность логического вывода Сёрла, приводит Дэвид Чалмерс. (1) Рецепты синтаксичны; (2) Синтаксис недостаточен для рассыпчатости; (3) Пирожные рассыпчаты. Значит, реализации рецепта недостаточно для пирожного. Это очевидно ложное рассуждение Чалмерс сопоставляет с рассуждениями Сёрла о синтаксисе и семантике. Он полагает, что проблема Сёрла заключается в том, что он совершенно не различает программы и их реализации. Да, программ самих по себе недостаточно для сознания, но вот реализованных на чем-то программ — вполне.

Индексикальные вопросы

За 35 лет с момента создания аргумента Китайской Комнаты (КК), каждое слово в исходной статье Сёрла было оспорено и подвергнуто сомнению. Философы пытались показать, что человек в Комнате всё же понимает китайский (бессознательно, вместе с инструкцией, вместе с программистами, поймет со временем и т.п.); утверждали, что существует только синтаксис, а ментальное содержание сознания — миф; что Сёрл должен имитировать не только поведение, но и реальную внутреннюю работу мозга, и т.д. Об экстравагантности приводимых возражений красноречиво свидетельствуют названия соответствующих работ: «Квантовая лингвистика и Китайская Комната», «Сознания, программы и китайские философы: китайская перспектива Китайской комнаты», «От Китайских комнат к Ирландским комнатам» и даже «Мышь-зомби в Китайской комнате».

Продолжет традицию странных названий статья профессора Вадима Васильева «Кока-кола и секрет Китайской комнаты». Васильев обратил внимание, что еще никто не атаковал предпосылку, что КК в принципе может пройти ТТ. Утверждалось, что для продуцирования ответов ей понадобится невероятное количество времени, что человек не сможет написать или интериоризировать соответствующие инструкции, но такие возражения Сёрл парирует напоминанием, что это всё-таки мысленный эксперимент. Чтобы оспорить его посылки, нужны концептуальные средства. Васильев замечает, что в лингвистическую компетентность входят способность отвечать на индексикальные вопросы. Например: «сколько времени?», «что стоит на столе?» и т.д. Может ли на них ответить Сёрл, сидящий в Комнате? Как должна быть написана инструкция в таком случае? Видимо, она должна гласить: «если вопрос содержит последовательность иероглифов XYZ, посмотри на стол, и, если там стоит банка Колы, ответь иероглифом N (банка Колы)», либо «если XYZ, отвечай M (я не знаю / я слепой и не вижу)». Если Сёрл будет систематически отвечать «М», мы заподозрим неладное. А в первом случае у него просто появится понимание.

Чтобы спасти эксперимент, Сёрл предлагает модификацию с Китайским Роботом. Пусть Робот обладает датчиками, которые Сёрл может задействовать согласно инструкции, и данные с них поступают ему в «письменной» иероглифической форме — такой, что Сёрл не будет понимать их значения. Тогда Комната сможет отвечать на индексикальные вопросы и пройдёт ТТ. Сёрл утверждает, что вариация с Китайским Роботом идентична Комнате. Но если допустить Робота, Сёрл не будет знать всю программу, требуемую для ответа, а если узнает её, то узнает и таблицу соответствий сенсорных данных иероглифам и обязательно обретёт понимание, что подорвёт весь эксперимент.

Ответ Сёрла на это возражение читайте в нашем интервью с ним. Тема индексикальных вопросов развивается в статьях Дмитрия Волкова «Аргумент внутреннего времени» и Кирилла Загустина «Китайский агент».

Рассылка статей
Не пропускайте свежие обновления
Социальные сети
Вступайте в наши группы
YOUTUBE ×