1. Проблема ИИ
Различие между "сильным" и "слабым" ИИСлабый ИИ рассматривает компьютеры как инструменты для изучения разума,
позволяющие формулировать и проверять гипотезы, в то время как сильный ИИ
утверждает, что правильно запрограммированный компьютер сам является разумом и
буквально понимает информацию
ex: Когда мы используем компьютерную программу для моделирования погодных
условий, мы не утверждаем, что компьютер "переживает" дождь или "чувствует" ветер
(слабый ИИ). Однако сторонники сильного ИИ считают, что программа, моделирующая
понимание языка, действительно понимает этот язык так же, как человек.
Программа Шенка как пример сильного ИИ
2. Китайская комната
Описание экспериментаСёрл предлагает представить человека, запертого в комнате с китайскими текстами и набором правил на английском языке для манипуляции этими символами. Человек не знает китайского, но может следовать инструкциям и соотносить символы, создавая ответы, неотличимые от ответов носителя языка
Ключевой аргументЧеловек в комнате производит правильные ответы на китайском, но не понимает ни слова. Аналогично, компьютер, выполняющий программу, манипулирует символами без понимания их значения
Выводы из эксперимента1. Компьютер Шенка не понимает рассказы, поскольку он, как и человек в китайской комнате, лишь манипулирует символами без понимания их значения
2. Программа не может объяснять человеческое понимание, поскольку она не создаёт достаточных условий для возникновения понимания
Синтаксис (формальные правила манипуляции символами) не порождает семантику
(значение, смысл)
3. Ответы на возражения
Ответ систем (Беркли)Возражение: Хотя человек в комнате не понимает китайский, вся система (человек + правила + банк данных) понимает
Сёрл отвечает, что если человек запомнит все правила и данные, став всей системой, он всё равно не будет понимать китайский. В системе нет ничего, что могло бы обеспечить понимание
Ответ роботов (Йель)Возражение: Если компьютер поместить в робота с сенсорами и моторами, взаимодействующего с миром, он сможет понимать
Сёрл показывает, что добавление "сенсорных" и "моторных" возможностей не решает проблему, поскольку человек в комнате может получать символы от камеры робота и отправлять команды его моторам, не понимая, что происходит
Ответ имитации мозга (Беркли и MIT)Возражение: Если программа точно имитирует работу мозга китайца на уровне нейронов, она должна понимать китайский
Сёрл указывает, что имитация формальной структуры нейронов не воспроизводит их каузальные свойства, необходимые для возникновения интенциональности
Комбинированный ответ (Беркли и Стэнфорд)Возражение: Если объединить все предыдущие подходы (система + робот + имитация мозга), получится система, которая должна понимать
Сёрл соглашается, что человекоподобный робот с мозгоподобной структурой может обладать интенциональностью, но это не подтверждает тезис сильного ИИ о достаточности формальной программы для понимания
Ответ другого разума (Йель)Возражение: Мы приписываем понимание другим людям только на основе их поведения, почему бы не приписать его и компьютеру?
Сёрл отвечает, что вопрос не в том, как мы узнаём о понимании других, а в том, что именно мы им приписываем. Понимание не может быть только вычислительным процессом
Ответ многих жилищВозражение: Возможно, в будущем мы создадим механизмы с необходимыми каузальными свойствами для интенциональности
Сёрл не возражает против этого, но отмечает, что такой подход делает сильную версию ИИ тривиальной, определяя искусственный интеллект как "что угодно, что искусственно порождает когнитивные состояния"
4. Философские выводы
О возможности мыслящих машинСёрл не отрицает возможность создания мыслящих машин, поскольку мы сами являемся такими машинами. Вопрос в том, может ли мышление возникнуть только из формальной программы
Интенциональность и каузальностьИнтенциональность (направленность сознания на объекты) возникает из определённых каузальных свойств мозга, а не из формальных манипуляций символами
Синтаксис и семантикаКомпьютерные программы обладают только синтаксисом (формальными правилами), но лишены семантики (значения). Интенциональные состояния определяются своим содержанием, а не формой
Симуляция vs. дупликацияКомпьютерная симуляция процесса не идентична самому процессу. Симуляция пожара не горит, симуляция дождя не мочит, а симуляция понимания не понимает