Lytdybr -- от 22 апреля 2025

Дело, появившееся после конференции – это переименовать “курс” иногда в руководство (это если материалы курса), а иногда в стажировку (если это прохождение курса). Это примерно 1050 раз для руководства по системному мышлению, 500 раз для руководства по методологии, 300 раз для руководства по системной инженерии. Ещё надо как-то выбрать стиль, пока склоняюсь писать без кавычек и с маленькой буквы – вот как в предыдущем предложении. В принципе, используется как “руководство по методу” и “руководство роли”. Руководство – это общие указания (вот прямо что у нас), а инструкция – без вольностей в интерпретации, подразумевает точность исполнения. В этом плане инструкция и регламент близки. По-английски это guide to something – с объяснениями и описаниями, “путеводитель”, обычно с самыми разными артиклями (a, the, отсутствие артикля) guide to method, например “A Guide to Systems Thinking”. Ну, или guide for role, если “для роли”. Guide – это про “объясняет и направляет”, наш случай. Handbook – это справочник, подразумевающий компактность, удобный для держания в руке, к нашим многотомникам это не относится. Не manual, ибо manual чаще всего для какого-то оборудования, а у нас – методы. Всякие primer и introduction – это для начинашек (у нас это “введение в”). Textbook – это то, от чего мы отплываем, “учебник, для обучения на курсах”. Playbook – это стратегии, сценарии каких-то ситуаций в бизнесе или спорте. Вряд ли это про нас. Так что руководство – и примерно 1800 исправлений в первых трёх текстах, это порядка 30 часов, если по минуте (включая навигацию и “подумать”) в среднем на исправление. Четыре дня full time, не так мало. Но и не так много.

В субботу у меня будет информационный семинар по мантрам/канвам/уравнениям/сюжетам (системная, операционная, элегантности/lean, стратегирования), Telegram: View @system_school. Там я уже почти закончил делать слайды первого раздела с объяснениями “как это работает, зачем это надо”. В планах ещё и внести этот материал в руководство по системному мышлению как отдельный подраздел или даже парочку с разъяснениями. Но это можно отложить и на “после семинара”. Содержание же этих мантр/сюжетов подробно разъясняется в наших руководствах – на семинар я просто вытаскиваю это содержание из разных мест в этих руководствах и добавляю ещё не написанное объяснение принципов их устройства.

Продолжаю думать над эквивалентностью инженерии личности (обучение – тут!) и инженерии систем с LLM, а также прикидываю, что нам в нашей работе по искоренению глупости в мире (помните? ровно год назад: “Работать с причиной, а не следствиями: массово делать людей и AI умнее”, Работать с причиной, а не следствиями: массово делать людей и AI умнее: ailev — LiveJournal, и там более-менее выполненные неамбициозные, а ещё до сих пор интересные амбициозные планы) доступно, а что ещё нет. Вот несколько интересных материалов на эти темы, которые проскочили в литературе последних дней:
– хорошо обученная сетка, выдающая smart guesses выигрывает у плохо обученной сетки, которая долго и много критически размышляет. При условии, что этой сетке просто дали много раз попробовать, например, pass@128 или pass@256. Причина: RL не создаёт новые паттерны мышления, а эффективно использует наученные – повышает вероятность нахождения уже известных решений из базовой не слишком эрудированной модели. Пространство возможных решений при этом сужается. А вот distillation can genuinely introduce new knowledge into the model. Вывод: плохо понимаем, что там происходит с научением решать проблемы (в отличие от научения решать задачи), нужны какие-то новые подходы, не обучение с подкреплением: “Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?”, [2504.13837] Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?. Мне при этом вспоминается замечание Пион Медведевой о том, что знакомые ей “крутые предприниматели” с их способностями к рассуждениям и кривизной эпистемологии должны были бы быть крайне неуспешны в жизни, но в реальности этого не происходит. В чём дело? Вот эта работа про reasoning capacity показывает, что эта capacity может быть в чём-то другом, в порождении решений из самых разных нестандартных регионов пространства решений, а не в поднятии вероятности решения, которое находится в каком-то хорошо из известных/стандартных регионов этого пространства. Можно улучшать exploitation, а можно улучшать exploration – речь-то о меметических алгоритмах.
– разработка систем с LLM/мозгами под капотом – это не capability engineering, а reliability engineering. И это новая парадигма инженерии. Вот https://www.youtube.com/watch?v=d5EltXhbcfA, и там ещё интересный вывод в том, что надо стартовать с оценок – если протестировать качество системы, опирающеся на LLM нельзя, то за проект, возможно, не стоит браться (тут чуть больше – Telegram: View @llm_driven_products). Инженерия личности – это как раз такое, не capability engineering, а reliability engineering. Начиная с того момента, что при попадании в нужный контекст тщательно инсталлированное вами мастерство может вообще не проснуться, это ж ещё и COIN – покажется мозгу, что контекст неподходящий, никаких результатов обучения не увидите, “яблоки из жизни едят, а считают яблоки из учебника”. Вот ещё пост про это: Telegram: View @llm_under_hood, там “Очень просто сделать чатбота, который сможет правильно ответить на несколько вопросов. Но на порядки сложнее сделать систему, которая будет стабильно корректно отвечать на все разнообразные вопросы пользователей”. От себя добавлю: “залезая на всё более и более высокие деревья, на Луну не попадёшь”. У нас, кстати, уже пару лет работает наш Aisystant, и отвечает на некоторые вопросы очень хорошо, а на некоторые – глаза б не видели. Это как раз оно.
– learning sciences таки дают результаты – проверено на психотерапии, https://ai.nejm.org/doi/full/10.1056/AIoa2400802, бот-терапевт оказывается не хуже профессионального психотерапевта, вот тут подробности – First Therapy Chatbot Trial Yields Mental Health Benefits | Dartmouth. Но этого бота очень специально учили, в этом секрет! Это не “просто LLM” – и может дать хинт к тому, как учить наши LLM для системного мышления, там было вложено 100тыс. человеко-часов: первая стадия была – “используем LLM”, на выходе была “бытовая терапия от друзей”, вторая стадия – “транскрипты психотерапевтических сессий”, бот освоил типовые приёмы поведения психотерапевта на сессии, типа “да-да, продолжайте”, но не лечил, а потом пошла сборка датасетов строго на методах когнитивно-поведенческой терапии – и вот тут-то и случился успех, подробней про это в русском перессказе тут: Telegram: View @d_strategy. Мой хинт в том, что если мы собираемся сделать “системного мыслителя, у которого можно постажироваться в системном мышлении”, то нам потребуется вот ровно эти же 100тыс. часов потратить на то, чтобы вкатать в него внутрь learning sciences (ибо это полностью эквивалентно задаче обучения бота-психотерапевта! Когнитивно-поведенческая терапия – это терапевтический извод learning sciences, подробней в И ещё про обновление "Инженерии личности" в 2025: ailev — LiveJournal), и мы получим методиста, который “знает, как учить всякому-разному”. А затем нам надо потратить ещё, наверное, столько же (это оценка “с потолка”) на то, чтобы научить быть системным мыслителем, методологом, системным инженером, и т.д. Может быть, несколько раз по столько. И вот тогда мы и получим “наставника по системному мышлению” – того, кто способен (ну, или то, что способно, это ж нежить) научить. Интересная оценка ресурсов, потребных для решения задачи. И надо ещё как-то это автоматизировать, чтобы не готовить такого спеца каждый раз за 100 тыс. часов людского труда (48 человеко-лет, это лаборатория на 48 человек, занятых год). Тем не менее, для крупных лавок такие задачи уже могут быть доступны.

Интересные развлечения со сведением физики к геометрии, всё это отвечает математике, базирующейся не на логицизме, а на унивалентных основаниях, выводу всего из “точки” (у меня про прописано в руководстве по интеллект-стеку, и там ещё про разные исследовательские программы алгебраистов и геометров и унивалентность как раз про их объединение):
– переформулирование обучения как геометрической теории, “Geometric Learning Dynamics”, [2504.14728] Geometric Learning Dynamics. We present a unified geometric framework for modeling learning dynamics in physical, biological, and machine learning systems. И там про связь квантового обучения, классического обучения, эволюционного обучения через один параметр. И объяснение возникновения биологической сложности при эволюции. Это Виталий Ванчурин.
– переформулирование электромагнетизма как геометрической теории, “Electromagnetism as a purely geometric theory”, Radware Bot Manager Captcha. This research article derives a nonlinear generalization of Maxwell’s equations from a variational approach, when the action measures the variability of the metric tensor. The proper space is a Weyl space, where the covariant derivative of the metric tensor does not need to vanish. The Lorentz force law is derived from the same metrics as a geodesic equation. The charge density is shown to obey a covariant wave equation, which indicates that charge density is a field, which propagates at the speed of light. This viewpoint promotes the wave-picture of the electron. The results indicate that the Dirac equation is a geometric equation as well. As the electrodynamic force, i.e. the Lorentz force can be related directly to the metrical structure of spacetime, it directly leads to the explanation of the Zitterbewegung phenomenon and quantum mechanical waves as well. Это Jussi Lindgren со товарищи.

Картинка со страницы Jussi Lindgren, https://x.com/LindgrenJussi, а именно – его перепост (https://x.com/LindgrenJussi/status/1914018230815101372) Physics in History, запись про Alexander Grothendieck (1928–2014), revolutionary algebraic geometer (https://x.com/PhysInHistory/status/1914005832699957373). Алгебраическая геометрия на странице физики, так и должно быть:
grothendieck

4 лайка