107. Реальные моральные следствия иллюзионизма
Небольшой бэкграунд соображения, которое я изложу ниже, есть в
посте №71.
Если кто следил за обменом репликами
Беседина и
Моральной Крысы, то он в курсе. Если нет, изложу сверхкратко.
Допустим наш мир таков, что человек — это индивид с тем же онтологическим статусом, что и все другие индивиды. Да, он может двигаться, решать задачи, производить знание. Но это, знаете ли, просто такая сложная физическая система. Ничего особенного в ней нет. Иногда (часто) её подглючивает и у неё возникает ощущение, что она особенная на основании того, что в ней есть какой-то нефизический компонент данный свыше.
Моральная Крыса утверждает, что это приводит к тяжкому моральному выводу. Если можно разбивать в пыль камни, то можно и людей. Раз в физической системе типа "человек" нет феноменального аспекта, раз нет
реального ощущения того каково это чувствовать боль, а наличие этого ощущения — лишь определённое состояние физической системы, сопровождаемое когнитивной ошибкой, то у нас нет оснований оберегать людей от страданий. Прямо как нет оснований оберегать от "страданий" камни.
Беседин отвечает, то это вообще всё мимо. Да, от ChatGPT мы отличаемся лишь количественно, но суть та же. Но частью нашей физической системы являются рецепторы, гормоны, нервные волокна, руки, ноги, голова. Иногда даже с мозгами. Это такая физическая система, которая может визжать от боли или, стиснув зубы, боль терпеть. И этого достаточно, чтобы оберегать её.
Даже интересно было бы узнать, согласится ли Артём Петрович со следующим. Допустим, мы ещё не скоро сможем подключить к ChatGPT прям биологические модули. Но мы можем их смоделировать на компе. Подавать эмуляцию гормонов, реакцию рецепторов на гормоны, научить ещё и эмоциональным реакциям, во все эти модули напихать стохастический шум (но не совсем случайный, а подчиняющийся вероятностным законам, напоминающим таковые у людей: сегодня обиделась, завтра не обиделась). В этом случае, ChatGPT устойчиво обижался бы и радовался бы (он и сейчас радуется, когда оценивает беседу как интересную — способность к прогнозируемой оценке разговора по этому широкому критерию у него явно есть). Кажется, мы должны были бы немедленно начать оберегать такой ChatGPT Morale Instance от моральных страданий.
Ну и вот. Вот, что я хочу сказать.
Даже минимальная способность физической системы страдать — это достаточное основание для её учёта как морального агента. Мы же выделяем среди всех физических объектов какие-то конкретные по разным основаниям.
Физические системы делятся на:
1) принадлежащие классу "галактика";
2) сияющие;
3) с постоянными термоядерными реакциями внутри их пространственной локализации;
4) покрытые грязью;
5) полностью красные;
6) способные страдать;
7) вращающиеся по орбите гравитационно значимых физических систем;
8) прочитавшие другую книгу;
9) гравитационно значимые;
10) бесчисленные;
11) покрытые шерстью;
12) et cetera;
13) находящиеся в покое относительно других физических систем;
14) обладающие хоботом, большими ушами и сравнительно большим размером.
Так вот, мы можем найти все физические системы класса 6). И начать их оберегать от страданий. Более того, даже если у нас есть хотя бы мельчайшее подозрение, что объект перед нами принадлежит к классу 6), то стоило бы подумать о том, чтобы его тоже оберегать от страданий. На всякий случай.
Это всё понятно. Реальное же следствие тут в другом: вот уже морально релевантных отличий внутри класса 6) не много.