[МУЗЫКА] [МУЗЫКА] Итак, мы с вами обсудили аргумент китайской комнаты. Надо сказать, что этот аргумент вызвал широчайшую полемику. Написаны десятки книг, буквально сотни, если уже не тысячи статей, которые критикуют или защищают аргумент китайской комнаты. В целом, можно сказать, что нет более популярного эксперимента в современной философии, чем мысленный эксперимент с китайской комнатой. Мы с вами сейчас кратко обсудим те возражения, которые представили Сёрлу против аргумента китайской комнаты, и посмотрим, работает ли аргумент китайской комнаты, несмотря на эти возражения. Замечу, что я всегда буду оставлять выбор за вами. Моя задача — сформулировать аргумент и показать, как на него можно ответить. А уж итоговые выводы делайте вы сами. Итак, первое возражение. Джону Сёрлу говорили, что китайская комната — это система, это единое целое. И китайский язык понимает не книга, не табличка, и, конечно, не Сёрл, а система в целом. Китайский понимает вся эта совокупность, как нельзя сказать, что что-то понимает клеточка нашего мозга. Целая система нашего мозга может понимать китайский. Что ответил им Сёрл? А давайте попробуем поместить всю эту систему себе в голову. Вызубрим наизусть книгу правил, запомним, как рисуются все китайские иероглифы, и повторим мысленный эксперимент. Можно ли будет сказать, что, вместив внутрь себя всю эту систему, мы начали понимать китайский? Возникло ли какое-то понимание? Оставляю этот вопрос для вас. Другое возражение — так называемое "возражение от робота". Его сторонники говорят: Ваша комната изолирована от мира. Давайте свяжем ее, как реальный человек связан с миром различными сенсорами, различными датчиками. У нашего робота будут видеокамеры, аудиосенсоры, манипуляторы и динамики. Ему будет поступать информация об иероглифах через видеокамеру. Он сможет отвечать, используя динамики. Такая машина будет принципиально связана с окружающей средой. Она будет как бы смотреть, как бы слышать, как бы манипулировать окружающим ее миром. И такая машина будет понимать китайский. Робот будет понимать китайский. Как же ответил на это Сёрл? Он повторил свой излюбленный ход: а давайте встанем на место программы, которая управляет этим роботом. Что изменилось? Изменилось просто количество входящей информации. Машина и информацию с видеокамеры, и информацию с аудиосенсоров, и любую другую информацию представляет в форме кода. И манипулирует именно этим кодом. Поэтому меняя количество датчиков, мы просто меняем количество иероглифов. И возникает вопрос: а решает ли увеличение объема входной информации проблемы понимания? Подумайте. Следующее возражение более сложное. Оппоненты Сёрла сказали: а давайте мы не будем создавать какую-то книгу правил, а построим полную точную формальную модель мозга китайца. Каждый нейрончик имеет 10 000 связей примерно. Ну больше-меньше - около того. Давайте каждую из них промоделируем и создадим полноценный мозг носителя китайского языка. У нас будет такая компьютерная модель. Мы будем помещать в нее некоторую информацию, и результаты обработки информации в мозге будут теми же самыми, что и в модели. То есть модель будет на выходе выдавать то же самое, потому что она устроена точно так же. Как же ответил на это Сёрл? Тем же самым ходом. Он сказал: а давайте попробуем управлять этим мозгом вручную. Давайте мы полностью поймем, как работает эта модель. Представим себе, что каждый нейрон соединен с другим нейроном шлангом. Есть ли между ними контакт или нет, есть ли сигнал или нет, определяется тем, повернут ли клапан или нет. И мы поместим человека в комнату, где он будет метаться между клапанами и постоянно откручивать их и закручивать. Он будет как бы «вручную» устанавливать все связи между нейронами мозга. Скажите, будет ли этот человек, поворачивающий клапаны, знающий все формальные связи между всеми нейронами, понимать а про что эти нейроны? Представьте себе, что вы все знаете о том, что происходит в мозге некоторого человека. Вы понимаете, о чем он думает, хотя знаете все эти связи? Вопрос я тоже оставляю вам. Наконец, следующее возражение — это так называемое "возражение от других сознаний". Давайте подумаем, как мы судим о том, что некоторый человек знает китайский. Ну к примеру, он может предъявить нам языковой сертификат, где будет написано: блестяще владеет китайским, уровень C2, или какая-нибудь еще классификация, которая есть для китайского. Как он получил этот сертификат? Он пришел на тест и прошел тест. Что входило в тест? Входила проверка активных навыков — письма и говорения — и пассивных навыков — чтения и аудиального восприятия, то есть способности на слух воспринимать информацию. Человек прошел этот тест, и ему дали этот сертификат. Заметим, что человек демонстрировал некоторое поведение. Он записывал ответы, он говорил, он заполнял бланки. И на основе этих действий мы судим о том, что у него есть знание китайского. Тогда почему мы приписываем человеку знание китайского, а у робота его отрицаем, который, допустим, тоже может пройти тест на знание китайского. На это Сёрл предлагает следующий ответ: когда мы говорим, что некоторый человек знает китайский, мы не только говорим, что он способен решать тест, мы говорим, что он понимает, о чем этот тест, что он понимает китайский. Не только демонстрирует некоторое поведение, но и демонстрирует некоторое понимание. И вот именно это понимание, как Сёрл пытается показать в аргументе китайской комнаты, и недостает роботу. Можно ли сделать вывод, что программа знает китайский, если она блестяще сдает тест на знание китайского языка? Ответ на этот вопрос я также оставляю вам. Итак, мы с вами рассмотрели четыре возражения на аргумент китайской комнаты. Надо отметить, что многие философы сказали, что Сёрл пытается мыслить искусственный интеллект слишком антропоморфно. Он переносит стандарты человеческого мышления на машину, которая может мыслить совершенно иначе, чем мы, и понимать совершенно иначе, чем мы. Я, в свою очередь, хочу обратиться к другому вопросу: а что зависит от того, что программа мыслит? А какие последствия были бы у признания того, что машины умеют мыслить и сознавать? Именно к следствиям из этого тезиса мы обратимся в следующей части. [МУЗЫКА] [МУЗЫКА]