Слово к воскрешению Матрицы

Мышление - это про то, когда мы ищим решения новых проблем. 

Для нахождения эффективного решения проблем нам очень нужно оценивать будущее состояние мира после того или иного принятого нами решения. 

А на примере Конвейской игры "Жизнь" мы видим что будущее состояние сложных систем нельзя просчитать математически. Их будущее состояние можно узнать, только "прогнав" их вживую или в симуляции. 

"Прогонять" каждую идею в реальном мире - это метод проб и ошибок. Он очень дорогой и представляет опасность что у нас закочнатся ресурсы раньше чем мы найдём решение.

Поэтому мы создаём информационную модель мира в уме, на основе её выдвигаем гипотезы, на основе её-же прогоняем в уме симуляции, откидываем те гипотезы, которые проваливаются сразу на уровне мышления и только оставшиеся проводим как эксперимент в реальном мире. 

Ещё мы поняли что ум/интеллект как функциональный объект уже давно не совпадает с физическим объектом "мозг". Мы выносим хранение и обработку информации в экзокортекс - раньше на бумагу, а теперь - в компьютеры.

То есть, да, мы можем и используем компьютер для просчитывания последствий планируемых нами решений проблем. Вероятность точности предсказания такого просчета зависит напрямую, насколько точно мы отобразим объекты и связи реального мира в цифровом пространстве. Да, в идеале мы создадим замкнутый мини-мир, точно копирующий наш. Мы скорее всего не сможем скопировать всю вселенную во всей её сложности, но для проверки наших гипотез, нам достаточно одной планеты с упрощённой моделью. И мы заселим её агентами искусственного интеллекта (ИИ), которые будут вести себя как люди со всеми их рациональными и нерациональными поведениями.

Тут возникает некоторая этическая проблема по поводу этих агентов… Но! Есть сильный аргумент, что мы, как бесконечно развивающаяся цивилизация, возможно первая, возможно единственная достигшая нашего уровня развития, не имеющая второго шанса, просто обязаны (перед лицом самой жизни во вселенной) использовать интеллект для проведения размышлений и принятия решений. Сильный интеллект - это интеллект подкрепленный ИИ и населённый агентами-пушечным-мясом.

И теперь, после того, как мы провели этот мысленный эксперимент, нам нужно задаться вопросом - как мы можем знать что мы сами не являемся агентами такой симуляции? Примитивной, упрощённой, но в себе целостной и поэтому для нас абсолютно иммерсионной симуляции? И вдруг из закаленных материалистов-атеистов мы становимся агностиками. Риск реальный и на кону - всё. Только что в таком случае делать, как-то пока непонятно.

Эту тему очень красиво раскрыл Дуглас Адамс в "Автостопом по Галактике". Кто не читал - предвкушайте, у вас впереди пёстрая гонка по американским горкам воспаленной фантазии этого автора.

И чуть менее красиво эта тема раскрыта в Матрице. Сильно напрягает, что авторы запрягли людей в роли "батареек" а не "вычислителей". Получилось как-то странно. Проблема ведь была в том, что у компьютера накрылась подача энергии от солнца. Чем он заряжает эти человеко-батарейки то? И если он их чем-то таки заряжает, то почему он не может сам заряжаться от этого первоисточника? И если уж так нужны батарейки, то - зачем людей то для этого брать, с их подрывным интеллектом? Лучше коров же! Думаю что авторы думали об этом в 99ом году и решили что публика про "вычислители" не вкурит. Давайте верить что так и было. И в общем, если заменить "батарейка" на "вычислитель", то фильмы вполне можно смотреть. Идём в кино на четвертую инкарнацию.

#сиОдО

> И теперь, после того, как мы провели этот мысленный эксперимент, нам нужно задаться вопросом — как мы можем знать что мы сами не являемся агентами такой симуляции? Примитивной, упрощённой, но в себе целостной и поэтому для нас абсолютно иммерсионной симуляции? И вдруг из закаленных материалистов-атеистов мы становимся агностиками. Риск реальный и на кону — всё. Только что в таком случае делать, как-то пока непонятно.

В каком смысле тут употреблено слово “риск”? Риск того, что человеческая мораль окажется “неправильной”? Ну это только справедливо (возможно) для деистических/идеалистических моралей (divinity по Richard Shweder). Либеральной и социальной морали (autonomy, community) симуляционная гипотеза, вроде, никак не касается.

Соответственно, ответ на вопрос “что делать” - для носителей либеральной морали, ничего :slight_smile: Носители деистической морали (то есть, верующие) тоже не озабочены, потому что для них сама симуляционная гипотеза является ересью :slight_smile:

>Риск того, что человеческая мораль окажется «неправильной»?

Пойми меня по-другому - риск того что мы находимся в симуляции.

Да, Вачовски сильно бы удивились мысли, что людей можно было бы использовать как “мясные” вычислители, а не как батарейки.

Вот вам готовый сюжет для фильма

Представляешь себе - квантовые компьютеры, которые сами воспроизводятся и сами строятся. Да ещё и биоразлагаемые. Это же клондайк для такого силиконового компьютера с ограниченными ресурсами как в Матрице! 

И теперь, после того, как мы провели этот мысленный эксперимент, нам нужно задаться вопросом — как мы можем знать что мы сами не являемся агентами такой симуляции?

Глобально мыслите! Я материал курса пока пытаюсь применить к текущей работе, быту и ближайшим целям. А по поводу цитаты: если гипотезу не возможно проверить экспериментом, то никак не можем знать. Верить в эту гипотезу можно ровно так же как в бесконечное множество других, которые так же вне возможностей нашего восприятия и проверки.

Спасибо за заземление. Ты в этом точно прав.