Джон Сёрль (1932)
американский философ, получил широкую известность во всём философском мире благодаря своей жёсткой критике идеи искусственного интеллекта и когнитивной психологии

»
Аналитическая философия — это направление философской мысли, которое использует методы логического и лингвистического анализа языка для решения философских проблем
а именно
Philosophy of Mind (Философия сознания)) – это раздел философии, который исследует
природу сознания, ментальных состояний, ментальных функций, ментальных свойств,
сознательного опыта и их отношение к физическому телу, особенно к мозгу

1. Проблема ИИ


Различие между "сильным" и "слабым" ИИ
Слабый ИИ рассматривает компьютеры как инструменты для изучения разума,
позволяющие формулировать и проверять гипотезы, в то время как сильный ИИ
утверждает, что правильно запрограммированный компьютер сам является разумом и
буквально понимает информацию

ex: Когда мы используем компьютерную программу для моделирования погодных
условий, мы не утверждаем, что компьютер "переживает" дождь или "чувствует" ветер
(слабый ИИ). Однако сторонники сильного ИИ считают, что программа, моделирующая
понимание языка, действительно понимает этот язык так же, как человек.
Программа Шенка как пример сильного ИИ

2. Китайская комната


Описание эксперимента
Сёрл предлагает представить человека, запертого в комнате с китайскими текстами и набором правил на английском языке для манипуляции этими символами. Человек не знает китайского, но может следовать инструкциям и соотносить символы, создавая ответы, неотличимые от ответов носителя языка

Ключевой аргумент
Человек в комнате производит правильные ответы на китайском, но не понимает ни слова. Аналогично, компьютер, выполняющий программу, манипулирует символами без понимания их значения

Выводы из эксперимента
1. Компьютер Шенка не понимает рассказы, поскольку он, как и человек в китайской комнате, лишь манипулирует символами без понимания их значения
2. Программа не может объяснять человеческое понимание, поскольку она не создаёт достаточных условий для возникновения понимания

Синтаксис (формальные правила манипуляции символами) не порождает семантику

(значение, смысл)


3. Ответы на возражения


Ответ систем (Беркли)
Возражение: Хотя человек в комнате не понимает китайский, вся система (человек + правила + банк данных) понимает

Сёрл отвечает, что если человек запомнит все правила и данные, став всей системой, он всё равно не будет понимать китайский. В системе нет ничего, что могло бы обеспечить понимание

Ответ роботов (Йель)
Возражение: Если компьютер поместить в робота с сенсорами и моторами, взаимодействующего с миром, он сможет понимать

Сёрл показывает, что добавление "сенсорных" и "моторных" возможностей не решает проблему, поскольку человек в комнате может получать символы от камеры робота и отправлять команды его моторам, не понимая, что происходит

Ответ имитации мозга (Беркли и MIT)
Возражение: Если программа точно имитирует работу мозга китайца на уровне нейронов, она должна понимать китайский

Сёрл указывает, что имитация формальной структуры нейронов не воспроизводит их каузальные свойства, необходимые для возникновения интенциональности

Комбинированный ответ (Беркли и Стэнфорд)
Возражение: Если объединить все предыдущие подходы (система + робот + имитация мозга), получится система, которая должна понимать

Сёрл соглашается, что человекоподобный робот с мозгоподобной структурой может обладать интенциональностью, но это не подтверждает тезис сильного ИИ о достаточности формальной программы для понимания

Ответ другого разума (Йель)
Возражение: Мы приписываем понимание другим людям только на основе их поведения, почему бы не приписать его и компьютеру?

Сёрл отвечает, что вопрос не в том, как мы узнаём о понимании других, а в том, что именно мы им приписываем. Понимание не может быть только вычислительным процессом

Ответ многих жилищ
Возражение: Возможно, в будущем мы создадим механизмы с необходимыми каузальными свойствами для интенциональности

Сёрл не возражает против этого, но отмечает, что такой подход делает сильную версию ИИ тривиальной, определяя искусственный интеллект как "что угодно, что искусственно порождает когнитивные состояния"


4. Философские выводы


О возможности мыслящих машин
Сёрл не отрицает возможность создания мыслящих машин, поскольку мы сами являемся такими машинами. Вопрос в том, может ли мышление возникнуть только из формальной программы

Интенциональность и каузальность
Интенциональность (направленность сознания на объекты) возникает из определённых каузальных свойств мозга, а не из формальных манипуляций символами

Синтаксис и семантика
Компьютерные программы обладают только синтаксисом (формальными правилами), но лишены семантики (значения). Интенциональные состояния определяются своим содержанием, а не формой

Симуляция vs. дупликация
Компьютерная симуляция процесса не идентична самому процессу. Симуляция пожара не горит, симуляция дождя не мочит, а симуляция понимания не понимает

»

1. Проблема ИИ

2. Китайская комната

3. Ответы на возражения

4. Философские выводы

This site was made on Tilda — a website builder that helps to create a website without any code
Create a website