Чтение статьи остановило прохождение курса, поскольку совпало с окончанием отпуска и скудные ресурсы инвестиционного времени ушли на чтение и написание поста. Суммарно затрачено 4,5 часа.
Статья интересная, прочитал внимательно, записал некоторые возникшие мысли. Математические выкладки просто просмотрел, не особо вникая. Это всё равно матмодель высокого уровня, нет смысла разбираться. Тем более, что авторы справедливо заметили
Evidently, the analysis presented here and in the accompanying paper (86) is only an outline of a theory of evolution as learning. The details and implications, including directly testable ones, remain to be worked out.
Читая статью, меня преследовало ощущение, что я всё это уже откуда-то знаю. Потом дошло, что А.И. Левенчук использовал принципы и framework из статьи при написании своих курсов и все они уже неоднократно использованы для научения нейронной сети в моей голове.
Я прочитал предыдущие посты на эту тему и не вижу, что можно добавить. Мой проект, как и любая другая система, может быть описан в трактовке, предложенной в этой статье. Ведь авторы как раз и стремились создать как можно более общую модель.
Всё же отмечу несколько особенно заинтересовавших меня моментов.
Два типа frustration:
- optimization of the local objective can conflict with the global objective, causing spatial frustration. Это очень распространенное явление, его можно наблюдать очень часто и почти везде.
- temporal frustration - интересный взгляд на объект внимания, как одновременно присутствующий на разных системных уровнях, которые в свою очередь существуют в различных временных масштабах. Вот это я хочу научится замечать, для меня это представляет сложность, нужно думать для того чтобы понять, где возникают такого вида frustrations.
При этом важно, что оба типа frustrations не могут быть полностью разрешены, и разрешение на каком-то одном уровне порождает новые.
Этот факт, а также принцип
Renormalizability of the universe (P4) implies that there is
no inherently preferred level of organization, for which
everything above and below would behave as a homogenous
ensemble.
и знание о том, что
Rather, stochastic optimization tends to rapidly find local optima and keeps the system in their vicinity, sustaining the value of the loss function at a near-optimal level.
говорят нам, что что развитие - бесконечно, нет такой точки, в которой можно остановиться, потому что уже хорошо и хуже не будет. Всё меняется, сегодняшнее положение завтра может оказаться уже не хорошим, а принцип запрограммированной смерти напоминает, что не все доступные пути ведут в рай к достижению какого-то локального минимума в пространстве оптимизируемой функции. Мы сами можем быть оптимизированы таким образом более высокоуровневой системой. И это не эксцесс, а закономерный процесс. Подобное понимание придает дополнительную глубину известной фразе nothing personal, it’s just business.
С другой стороны, описанный в статье принцип паразитизма и тот факт, что это неизбежный процесс в ходе эволюции оставляет достаточно надежды на лучшее.
Остается открытым вопрос, а почему нужно считать, что эволюционный процесс может быть описан гладкими функциями, в пространстве которых только и справедливы приведенные в статье рассуждения. С другой стороны, сначала хорошо бы довести этот подход до конкретных результатов, а уже затем можно думать и о большем.