FPF обновился: там появились четыре паттерна, рассказывающие о том, как думать о характеристиках и пространствах характеристик. Это A.18, A.19, A.19.D1 и C.16. Дались эти паттерны большой кровью: была куча переписок при сильно сбоящей на этих объёмах текста нежити (почти 100% это была GPT-5 Pro, остальные модели такое не тянут). Результат напоминает какой-то сильно формальный стандарт по измерениям, но зато закрывает самые разные ситуации: шкалы всех сортов, а также сравнения (включая такие тонкости, как невозможность сказать “вот эта температура вдвое больше”, но возможность сказать “вот эта длина вдвое больше”). Ещё у меня появились смутные ассоциации с экспертной системой, столько там всяких нельзя и льзя. Как таким пользовались бы люди, мне неведомо, но вся надежда на нежить, и даже не на текущее поколение, а на следующее поколение. Замеры и пространства характеристик мне нужны были, чтобы замерять формальность, общность, надёжность, конгруэнтность эпистем, а также разбираться с архитектурными характеристиками и характеристиками модульности. Поэтому дальше буду допиливать мышление об эпистемах и динамику знаний, потом вводить мышление об архитектуре и архитектурной динамике. Смотреть это всё там же: First Principles Framework — Core Conceptual Specification (holonic).md — Яндекс Диск (объём за три дня сильно подрос, там 1.7Мзнака в Markdown).
Решили в ближайший вторник на методсовете обсудить, чем онтология FPF отличается от онтологии из наших руководств. Как минимум, в FPF конструктивная мереология, поэтому речь про части-целые возможна про холоны (и системы, и эпистемы). Оставить всё как было “для совместимости” – я бы возражал, ибо мы строили все наши руководства на идеях, близких в ISO 15926 и BORO, а вся эта тусовка за последние пять лет перешла на радикально конструктивные (в смысле конструктивной математики) онтологические основания, поэтому неизбежное не оттянешь: надо и нам так. Математика и онтология от интуитивистских начал переходят к конструктивизму, вот и мы тоже. Ещё много неожиданностей с ролями, которые “маски”, а bearers/holders этих масок (например, stakeholders) как раз системы и эпистемы. При этом системы действуют, а эпистемы – нет. Но эпистемы могут быть алгоритмами, которыми руководствуются преобразователи/transformers, которые роли систем, поэтому системы-преобразователи (синтаксис для системы-в-роли, ещё такой-же пример “Вася-инженер”) вполне себе могут работать по обобщённым алгоритмам, которые определяют метод. Всё это по отдельности простое, но выразительная сила этого подхода довольно велика, когда это всё начинает комбинироваться. Вот это и обсудим во вторник.
Ещё одна проблема: FPF выдаёт ответы не такие, как в руководствах, а ещё нейросетки с этим FPF вполне остаются нейросетками и отчаянно галлюцинируют, игнорируют очевидные проблемы и придираются к мелочам, а также врут нещадно. По большому счёту, даже Gemini 2.5 Pro не очень справляется, и даже GPT-5 Pro не очень справляется. Меня удивляет, как каждый день кто-то мне пишет, что ему удалось получить большую пользу. Но я думаю, что всё-таки FPF будет хорошо работать на следующем поколении моделей, текущее поколение моделей с ним работает не слишком устойчиво. Так что disclaimer вроде тех, которые пишут поставщики AI-ассистентов: “осторожно, AI-ассистент с подгруженным FPF может ошибаться!”. Но как с ранними моделями AI-ассистентов эти дисклеймеры никого не останавливали, так и с ранними моделями FPF это тоже никого не остановит. Можно написать и по-другому: “это чуть дальше границы, где можно вести надёжные рассуждения. Там драконы”.
В чат gonzo-обзоров я позвал Виталия Ванчурина, и он там дал разъяснения по использованию физики для улучшения архитектуры нейросетей, а Григорий Сапунов сделал “автомагический разбор” статьи по Covariant Gradient Descent (Telegram: View @gonzo_ML_podcasts, и автор статьи подтвердил, что в этом разборе всё правильно, а также добавил содержательных объяснений, зачем это надо: Telegram). Об этой статье Виталий сказал: “Физики думают формулами, а ML инженеры кодом. Мы взяли Adam, перевели на язык формул, поняли, что речь идёт о геометрии, и обобщили”, Telegram. Недостаток предложенного алгоритма CGD в том, что там дикое количество вычислений, но он заведомо хорош по результатам этих вычислений. Главное, это понимать, какие именно нужны вычисления, чтобы “стать умнее”. А дальше — инженерная задача оптимизации именно этих вычислений, другая задача. Как я понимаю, тут есть два хода:
— другая физика вычислителей (не GPU, а какие-нибудь квантовые компьютеры или оптические нелинейные среды или ещё что-нибудь подобное). И тут Григорий подкинул разборы статей по термодинамическим вычислителям: Telegram: View @gonzo_ML, а я докинул про термодинамический чип, для которого 12 августа 2025 сделали tape out – Normal Computing Announces Tape-Out of World’s First Thermodynamic Computing Chip - Normal Computing.
— нейросуррогаты, когда вычисления аппроксимируются нейросетями же, но архитектурно обособленными для этих же целей.
И тогда уж заживём!