Lytdybr от 23 января 2026

Ура, я вчерне закончил не только универсализацию части G, но и формирование кластера паттернов механизмов характеризации под заглавным A.19, который даёт общую онтику характеристик и их пространства, и в этот заглавный паттерн был воткнут reader’s guide с общим обзором этой объёмистой части. Какие там механизмы? Нормализации, индикаторизации, скоринга, агрегации, сравнения и выбора (причём выбор портфеля! Портфельный выбор очень удобен для обеспечения разнообразия в open-ended evolution), ещё там условия честного сравнения (по-английски CN-frame, comparability and normalization frame). На семинаре 1 февраля я буду активно использовать “честное сравнение”, поэтому важно было закончить эти механизмы характеризации до семинара, чтобы какие-то идеи “развития для развитых” можно было воспроизвести при помощи FPF дома. Посудите сами: вы хотите стать “лучше” – это означает, что вы должны с чем-то сравниться, это означает, что у вас должны быть характеристики, по которым вы сравниваетесь и сравнение должно быть честным (скажем, “при равных бюджетах и в один и тот же период”). Скажем, любимый приём “предпринимателя, который просит инвестиции” – “дай деньги, через пару лет у меня вот такие характеристики будут лучше, чем сейчас у конкурентов”, и табличка, что будет лучше. Вот это и есть типичный случай “нечестного сравнения”: “я потом буду лучше, чем ты сейчас” при замалчивании, что “если взять тебя потом, то ты в этом потом тоже можешь оказаться лучше”, а ещё там неявно и разница бюджетов, и ещё 100500 нюансов. FPF должен это как-то помогать отлавливать. Кластер объявляет mechanism.intensions (сигнатуры) для механизмов характеризации, но когда вам потребуется конкретный метод и протокол того, как же что-то замерять, то есть паттерн E.20, который позволит вам создать такой протокол – и вот поиском и пакетированием вот этих SoTA методов реализации механизмов как раз занимается часть G. На мой взгляд, всё довольно хлипко и кривовато (механизм, метод, дисциплина – там мешанина из этих видов/kinds, легко запутаться), но уже есть – и это главное достоинство. Дико доволен, можно брать обновлённый FPF, как всегда, в GitHub - ailev/FPF: First Principle Framework

План пока такой (как всегда, коррекция – порядок разработки, конечно, agile, а проблематизация идёт непрерывно):
– архитектура управления точностью языка, чтобы развить идею восстановления “мутной речи на границе” паттерна A.6.P, где по факту задействовано две разных технологии: routing высказываний о контекстах/границах L/A/D/E и лексическая точность на границе в сигнатурах/отношениях/интерфейсах. Надо вытащить оттуда управление сжатием-разжатием в языке, и я сегодня весь день как раз этим и занимался, там могут быть разные архитектуры. Работаем по норме: предлагаются варианты, ищутся недоминируемые, далее идёт из них выбор. Перед тем как лезть в архитектуру, хочется иметь более-менее универсальную машинку управления точностью/сжатостью разговора. Одна из идей – это уподобление куска текста LLM, а ситуации – набору данных, чтобы как-то “прикидывать на пальцах” оценки сжатия, “текст кодирует структуру ситуации” с ходом на “структуру” по линии, намеченной в недавних работах по ML (см. паттерны ML.* в От контекстного окна к виртуальной памяти: skills-пакеты FPF и архитектура подкачки знаний: ailev — ЖЖ). Это не формализация. Тут можно писать большой пост, ибо написанный мной в несколько заходов промпт для анализа архитектуры управления точностью и сжатостью (это два разных viewpoint: один про провоцирование ошибок и реальные ошибки, другой про длину релевантного высказывания перед ходом на мышление) уже больше, чем весь этот пост. Вот прямо сейчас GPT-5.2 Pro в подрежиме extended thinking размышляет, что там можно было бы сделать в FPF. Ведущие архитектурные характеристики при этом – evolvability, universality, usability и вычислительная ёмкость повышения точности (скажем, сколько раз надо кликнуть по ссылке, чтобы попасть на нужный фрагмент “одной точки правды” – это, похоже, ключевое будет, “самодокументируемые имена” вместо “глоссария” или “регистра claimID” именно из этой характеристики растут), а характеристику трудоёмкости переделок я пока игнорирую.
– дальше будет TGA, ибо мне нужно иметь развитый аппарат описания потоков трансдукций (читай: функциональных описаний). Отсутствие развитой характеризации было барьером, теперь можно вернуться к вопросу. И говорить точным языком! Там же от принципов к работе – а результаты работы хорошо бы измерить и сравнить с тем, что было предсказано по принципам, и вот это всё работа с характеристиками, там это сквозная нить.
– характеризация есть, Q-bundle есть, можно заняться архитектурными характеристиками! Известно, что их в литературе порядка 300, часто используемых порядка 30, вот и поисследовать (на эту тему и я уже немного писал в руководствах, а ещё были исследования Антона Королёва в МИРЭА, он рассказывал о них на нашей рабочей встрече INCOSE Rus по проблемам системной инженерии).
– дальше будет обсуждение характеристик собственно архитектуры, не путайте с архитектурными характеристиками. Архитектурные характеристики – это характеристики холона, определяемые его архитектурой. А характеристики архитектуры – это характеристики самой архитектуры. Скажем, reliability - это типичная архитектурная характеристика. Но сама архитектура? Например, coupling модулей в этой архитектуре можно отнести к характеристикам архитектуры. И тут мы идём к формулированию понятия “архитектура”, и у меня есть идеи по тому, как это делать (вернуться к “архитектуре как структуре”, дальше архитектурное описание – это (multiple viewpoints and multiple views)-определяемое описание структуры, а недавние работы по ML (см. паттерны ML.* в От контекстного окна к виртуальной памяти: skills-пакеты FPF и архитектура подкачки знаний: ailev — ЖЖ) показывают, как там что-то можно оценить численно: что из структуры мы описываем, а что не описываем. Всё опять упирается в “моделирование”, viewpoints, “сжатое описание” и это общий аппарат, а вот сами viewpoints уже предметны. Вот этот viewpoint – архитектурный. Тем самым можно будет обсуждать качество архитектурных описаний, а также “динамику архитектуры” (изменение значений в пространстве характеристик архитектуры во времени для какой-то конкретной архитектуры).
– и вот теперь у нас всё есть для занятий архитектурой самого FPF, где в основе “нулевые принципы”, а архитектура крутится не вокруг “вставки модулей”, а вокруг специализаций, семейств, наборов механизмов и прочего такого, и вообще речь идёт о “спецификации FPF”, то есть эпистеме.
– и вот тут-то SoTA-packs (часть G), Second and Third Principles Frameworks, типовые P2W профили и прочие варианты расширения на предметные области. Хотя часть G уже готова, но я ещё вернусь к этому вопросу, мне не всё там нравится.

В разных чатах много вопросов про то, залезает ли в память FPF и как его дистиллировать. Мои ответы:
– уже много раз писал, что его надо засовывать в RAG, а не в контекст, он для этого оптимизирован (спец. оглавление, спец. разметка в самом файле). Засовывать одним файлом, целиком, всё там будет ОК. При этом есть особенности: например, в Gemini надо добавлять сначала в GoogleDrive, чтобы это пошло в RAG, иначе это добавляется в контекст. В ChatGPT я добавляю ещё вот такой промпт: “Будь внимательным с file_search, он сначала заставит тебя долго ждать, а потом не выдаст результаты, если они будут большого размера (при этом “большой размер” определяется динамически и может оказаться не таким уж большим). При этом иногда помогает читать из файла небольшими точно определёнными кусочками через Python, это трудно и долго, но по факту проще, чем повторять бесполезные запросы file_search” – просто вставляю этот абзац последним (хотя надо его, наверное, вообще в системный промпт добавить). Я проверял: этот совет точно замечается и экономит минут пять, а иногда и больше. Так что там с файлами не только RAG работает, но и другие методы. Вообще, на “мышление” уходит примерно четвёртая часть времени, остальное время – вытаскивание правильных кусочков, подготовка правильного diff файла и прочая возня с Питоном и его ограничениями, а также file_search и его ограничениями. Но внешняя память всегда жмёт по скорости, а ещё внешняя память неизбежна. И я помню про оперативку в 16Кслов (слово – два байта, иногда четыре), я с такими работал. А сейчас у меня в ноутбуке я просто плохо помню, сколько Gb (кажется, 16Gb, поскольку я не разработчик софта, мне много не надо). С LLM всё будет (и уже есть!) то же самое в части их контекста, динамического контекста (виртуальная страничная память!) и прочих штук с памятью. Программистов надо вот этому учить: принципам! Я вполне тут себя считаю программистом, только язык программирования у меня – русский, а мой “код” FPF – это “псевдокод на английском”. Но я готовлю FPF как универсальный продукт, особенностей разных моделей LLM и их инфраструктур я не хочу учитывать, инструкции для всего разнообразия не буду давать: каждый пусть тут сам учитывает. Опять же, большинство пользователей FPF, я надеюсь, будут не программисты – мышление поддерживать надо не только программистов, а программистов в населении Земли не так много.
– почему нельзя судить об FPF по дистилляциям (например, наборам skills): потому что они отжимают информацию. И я считаю, что эти наборы skills ещё и разные будут – они же подчёркивают разные viewpoints, и кто-то отожмёт “универсальную” часть FPF для его задач, а задачи кого-то другого в эту “универсальность” не попадут, будут отсечены. Поэтому я буду делать универсальную часть работы, а разными поджатиями FPF и интерфейсами к этим поджатиям (например, оформление набора skills для AI-агентов) пусть занимаются те, кто знает, что именно их интересует. Вот одно из мест, где прошла дискуссия, в комментах тут: Две операционные системы для мышления: FPF и HALO (в чате второго семинара по FPF тоже вчера было бурное обсуждение, но это закрытый чат, там только частники этого семинара). Ещё раз: любое поджатие – это потери в ответах на вопросы для какого-то viewpoints, поэтому кто о чём хочет спрашивать, тот и должен поджимать “для себя”. А универсальный источник поджимать ничего не будет, ибо непонятно, о чём его спросят.
– будет ли работать FPF, если он будет продолжать так распухать? Мой ответ: ха-ха, это же явно намёк на эффект второй системы (https://ru.wikipedia.org/wiki/Эффект_второй_системы ), защищаюсь я от него так: много времени уделяю архитектурным вопросам и отсутствию каких-то больших архитектурных долгов. Evolvability – это наше всё. При этом у меня open-ended evolution, а не up-front планирование-изготовление-провал. Как говорится, “перепрыгиваю пропасть маленькими шажочками”.
– почему использование такого большого и чудесного FPF не автоматизирует мышление полностью? Ну, потому что цели автоматизировать мышление и не было. Если вы получаете умного собеседника, вам придётся думать больше! Но при этом придётся ещё и учиться взаимодействовать с умным собеседником, знать хотя бы что-то про теории, которые он использует в его мышлении. В случае FPF+LLM это проявляется в полной мере. Поэтому, увы, FPF обречён на нишевость (вспоминаем “скрипку Энгельбардта” и текст “Никто не хочет учиться играть на XYZ”, 2015, Никто не хочет учиться играть на XYZ.: ailev — ЖЖ).

Совсем черновой набор слайдов семинара 1 февраля без каких-то картинок и с непричёсанной и не очень согласованной ещё терминологией готов, у меня ещё неделя для того, чтобы всё это причесать. Семинар получается бомбический, там собирается некоторая общая картинка нового инженерного процесса: за счёт автоматизации R&D (поиск решений) и Development (выкатывание продукта) в ходе agile-разработки, внимание инженеров сдвигается на традиционную область “размахивания руками в качестве доказательств и предсказаний будущего заглядыванием в магический кристалл”: она была отдана раньше предпринимателям, маркетологам, менеджерам и прочим “гуманитариям”, а сейчас её потихоньку забирают себе инженеры с их желанием точной (а не метафорической) речи и хоть какой-то воспроизводимости, для чего нужны ещё и численные оценки. И вот этот сдвиг происходит прямо на наших глазах: всяческое “стратегирование” сдвигается на инженеров. Тем самым имеем три фабрики: одна производит проблемы, другая – решения этих проблем, и всё это на основе представлений об эволюции (то есть не “эволюция системы как организма”, а эволюция семейства систем как популяции воплощения решений). И дальше мы уже знаем: нужна третья фабрика, на выходе которой две первых. “Находить решения проблем”, которые кем-то “поставлены перед инженерами” – этого маловато будет. Конечно, разделения труда в инженерном процессе никто не отменял, но сам инженерный процесс начинает обсуждаться опять другими словами. Никогда этого не было, на дворе суровый и повсеместный бесконечный agile, никаких уже lifecycle (разве что в заповедниках “около государства”), и вот опять! Повторюсь: конечно, в жизни оно всегда так было, но было раскидано по многим ролям с более-менее “магическим” видением мира, а тут просто даются SoTA viewpoints для этих ролей: внимание обращается не только первой фабрикой на “решения проблем”, но и на второй фабрикой на сами проблемы (а затем – и на получение достаточно богатых миров, чтобы эти проблемы были “интересными”, и слово “интересность” и “богатость” тут – термины), а третья фабрика строит не только вторую (как сейчас “инженеры внутренней платформы разработки” aka DevOps), но и первую тоже – в их тесной взаимосвязи. Дальше тривиально: если у нас есть новая системная инженерия (я бы уже говорил “холоническая”, ибо работаем и с эпистемами тоже), то дальше инженерия личности и системный менеджмент просто специализации. “Развитие для развитых” оказывается “Развитие для развитых личностей”, “Развитие для развитых систем и эпистем”, “Развитие для развитых предприятий”. Развитие для развитых стран, которые ищут на свою задницу неприятности, то есть проблемы (обязаны иметь фабрику проблем!) я опущу, сами эти объекты вроде “страны”, “государства” и “территории” (для которых любят употребить слово “развитие”) ещё надо как-то доопределить. В любом случае, возиться с материалом семинара мне и самому интересно, а 1 февраля 2026 я целый день буду об этом всём интересном рассказывать. Запись на участие прямо в чате семинара Telegram: Join Group Chat, программу публиковал в Семинар "Развитие для развитых в 2026": ailev — ЖЖ, ещё публиковал в порядке подготовки текст Развитие для развитых -- это SoTA инженерии личности: ailev — ЖЖ.

Новости мышления нейросеток на этой неделе, над которыми надо задуматься:
– Learning Latent Action World Models In The Wild, [2601.05230] Learning Latent Action World Models In The Wild (Telegram: View @gonzo_ML). Что надо вычитывать из этой статьи (кроме того, что LeCun в конце длинного списка авторов молодец): по размышлению над танцами и их моделированием я всё больше убеждаюсь, что значительная часть моделирования не поддаётся “в лоб” формализации – они устроены как язык, “продукт эволюции и культуры”, то есть там нельзя подобрать приличные правила, поскольку число исключений при любом наборе зашкаливает, если подбирать правила по FCA, то появляются чудовищные онтологии (и их выучивать вредно в силу ontology revision problem, что добавление одного-двух фактов заставляет переписывать огромные куски онтологии – так что учить приходится зыбкое), культура продолжает действовать и сами эти нормы плывут. Поскольку правила подобрать нельзя, то любые парсеры-на-правилах загнулись, и выжили только нейросетевые парсеры, хорошо отражающие “голографическое”, а не “членораздельное” (вот я писал в 2016, когда ещё не было даже трансформеров, Об членораздельное и голографическое в социологии: ailev — ЖЖ). И дальше мы идём в методологию, и понимаем, что многие методы (а “как танцевать танго с данной партнёршей на данной милонге” – это ж “применять метод”) примерно так же устроены, никаких “структурированных описаний” получить нельзя, ты просто танцуешь как-то, пока тебя не одолевает дзен – и нейросетка твоя как-то не справляется с получением модели хорошего танцевания (тангерос так и говорят: “как научиться хорошо танцевать танго? Танцевать 16 лет, всё само придёт, главное – не останавливаться”. Ага, обучение “без учителя”, моделирование без локальной/символьной модели, распределённые представления. Но есть и вторая сторона вопроса: цивилизация развивается членораздельными моделями, символьным моделированием, сжатием информации с её лёгким транспортом из вычислителя в вычислитель. Появляются слова, воспроизводимые рассуждения по правилам с проверяемостью результатов и самих шагов рассуждения, учёт ограничений и инвариантов и всё такое из “научной картины мира”, а не этой вашей “нейрогаллюцинированной картины мира” (хотя дай нейрогаллюцинатору внешнюю память и какой-нибудь калькулятор – он и в рассуждения по правилам сможет). Статья бьёт в эту же точку, в методологию: как описать отдельные действия (вроде “человек через дверь входит в комнату”) выделив какие-то инварианты. Вместо “языка операторов и их правил композиции” моделируется сразу “пространство возможных действий”, которое позволяет объяснять/предсказывать следующее наблюдение (привет, active inference), например, при анализе видео предсказать, что будет в соседнем кадре – и в фокусе тут действия, а не “предметы обстановки” или “кто там агент”. Эта штука работает, и работает хорошо. Очень хотелось бы иметь, конечно, “нейро-символическую методологию” (где гибрид “голографического и членораздельного”, то есть гибрид распределённых и локальных представлений), но если нет – хотя бы не игнорировать необходимость “распределённых представлений в методологии”. А дальше та самая “безъязыковая линия”, мышление идёт в latent space (а не в видео, аудио, языковой или ещё какой-то модальности), и если уж пытаться “символьно моделировать действия”, то прямой путь туда, а не в исходное или конечное пространства (скажем, пространства “что мы видим”). Это очень, очень мутное место, опыта мышления про распределённые представления нет, хотя у всех в голове есть мощный процессор именно для таких представлений. Так что идите пока танцевать танго, писать проникновенные тексты с вашим тонким чувством стиля и заниматься прочим таким: пока вас не прошибёт дзен и вы не построите ваше латентное пространство, модель этого куска мира и модель ваших действий в этом мире. Распределённая методология, да. Но западная цивилизация дальше придёт в этот дзен и что-нибудь предложит.
– в “A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning”, [2601.06851] A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning (Telegram: View @gonzo_ML) обсуждается архитектура глубоких нейросетей, хотя называется она “анатомия” (крутой выбор термина! уже интересно!), чтобы избежать тавтологии в словосочетаниях вроде functional anatomy of the Transformer architecture. Говорится о том, что где-то в средних слоях есть “синергетическое ядро”, ответственное за обобщение (интеграцию самой разной информации, то самое “представление в латентном пространстве”, сжатие входа во что-то, где идут основные операции мышления перед тем, как выпихнуть это в выходное представление). А остальное? Остальное не так чтобы можно было сразу выкинуть, но точно не про обобщающую способность сетки. Так сказать, не “бабушкины нейроны”, а “абстрагированные от бабушек нейроны”, “внутрипонятийное ядро”. Это очень напоминает дискуссии о функциональной географии мозга (“где у вас физически в мозгу нейроны благовоспитанности и математического мышления, ткните пальцем, пожалуйста”, и там тоже полно противоречивых мнений – потому как процессинг идёт явно не в этих терминах, а в терминах латентных представлений). Но вот эта “анатомия архитектуры” – очень интересный ход, надо бы над ним подумать, мне ж заходы на архитектуры делать, а dataflow архитектуры (хм, и анатомии, получается) тут вполне себе примеры.
– вот очередной заход на “нейросимволические вычисления”, только неконвенциональный: Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models, Engram/Engram_paper.pdf at main · deepseek-ai/Engram · GitHub (Telegram: View @gonzo_ML), тут авторы отделили хранение знаний от нейронных вычислений и вывели закон распределения разреженности (Sparsity Allocation): замена какого-то зависящего от режима оптимума (например, 20%) параметров MoE (Mixture-of-Experts) на огромные статические таблицы эмбеддингов N-грамм значительно улучшает метрики мышления. “Всё нейронное” оказывается хуже, чем “не всё нейронное”.
– западная цивилизация пытается таки понять, как работают распределённые представления, чтобы потом этим управлять. И оказывается, что это трудно, но возможно – хотя там ответы получаются “по одному вопросу за раз”. Общий принцип там такой: вы делаете набор данных, который заставляет сетку попадать в какое-то определённое состояние, отвечающее за объект интереса вашего узкого viewpoint. Затем смотрите, какие нейроны (веса) отвечают за это состояние. И дальше простая арифметика: либо руками проставляете эти веса, чтобы эти состояния гарантированно возникли, или наоборот – руками убираете эти веса, чтобы эти состояния гарантированно отсутствовали. Ладно, арифметика там не простая, а сложная – но сути дела это не меняет. Вот пример: “Reasoning Models Generate Societies of Thought” [2601.10825] Reasoning Models Generate Societies of Thought говорит, что we curate feature 30939, summarized as “a discourse marker for surprise, realization, or acknowledgment” by Gemini-2.5-Pro, which activates on tokens like “Oh!” in contexts involving turn-taking and social exchange. This feature exhibits a conversation ratio of 65.7%—placing it in the 99th percentile among all features—while maintaining high sparsity (0.016% of tokens), indicating that it captures a specific conversational phenomenon rather than general linguistic patterns. We select this feature because prior literature suggests that expressions of surprise signal a shift in contrasting perspectives characteristic of social coordination and afliation. Дальше вот такие фичи, вроде упомянутого conversational surprise, которые оказывались связанными с “внутренним диалогом”, стимулировали – вгоняли сетку в “внутрисебясоциальное поведение” на ровном месте. И получали бешеный прирост в умности модели. Это было исследование Гугла, а вот исследование Anthropic: https://www.anthropic.com/research/assistant-axis – там нашли некоторое направление Assistant Axis в пространстве активаций, которое определяет склонность к дрейфу характера LLM в сторону злонамеренности. И дальше меняют характер по этому направлению с “токсичного злоумышленника” на “сотрудничающего консультанта”, просто ограничивая активацию нейронов, ответственных за нелояльное поведение. По факту это – цифровая полиция мысли, и она отлично работает! Про их “конституцию гуманного рабства AI” (Telegram: View @NeuralShit) я ничего говорить не буду (про аболиционизм ввиду прихода AI я писал уже очень давно, например, вот октябрь 2013 года – “традиционная тема “оппортунистического поведения” (агент перестаёт работать на принципала) может в случае разумного агента подаваться как эмансипация агента (и даже круче: может появиться риторика аболиционизма)”, это я описывал разговоры на форсайте “Нейронета”, Форсайт нейронета, 12 октября 2013, "Точка кипения": ailev — ЖЖ, тогда это было что-то вообще запредельно далёкое и нереальное, сейчас многое тоже запредельно далёкое, но кое-что уже вот, практическая работа сегодняшнего дня, пока только для дрейфа assistant-like поведения, но уже понятно, что оппортунистическое поведение AI-агента лечится ограничением активации вполне определённых нейронов).
– работа про демократию: “Can AI Mediation Improve Democratic Deliberation?” с описанием “машины Хабермаса”, [2601.05904] Can AI mediation improve democratic deliberation? (Telegram: View @gonzo_ML). Берём фильм “Она”, в котором “она” одновременно разговаривает с тысячами и тысячами “возлюбленных” – и предлагаем поговорить о политике. И дальше используем иерархическую агрегацию, что модераторами-людьми сделать невозможно, а честным нейтральным модератором – возможно. Дальше остаётся только обсуждать, на каком этапе изготовления эта машина Хабермаса будет индоктринирована, чтобы модерация пришла к правильному результату, а не к неправильному (а какой результат должен быть правильным, это вам разъяснят текущие партия и правительство).
– ещё забавное: Гриша Сапов говорил всегда, что любой стране нужны не больше чем 5-6 экономистов. Он уже ошибается, в UK нужно семеро, его готовы финансировать в DeepMind: Job Application for Chief AGI Economist at DeepMind – As a Chief AGI Economist at Google DeepMind (GDM), you will be at the forefront of understanding the profound economic transformations that will accompany the arrival of Artificial General Intelligence (AGI) and Artificial Superintelligence (ASI). You will lead a new area of research, exploring post-AGI economics, the future of scarcity, and the distribution of power and resources in a world fundamentally reshaped by advanced AI.

Мне прислали впечатления 13-летнего школьника о книге “Образование для образованных”: “Я прочитал введение и первую главу. Я думал эта какая-то скучноватая книга а в итоге она такая интересная. Я как будто сижу на лекции с лучшим преподавателем который очень интересно рассказывает”. Ах! Я ровно поэтому книгу и не уволил до сих пор. Хоть она уже немного устарела, но мотивирует на развитие посильней многих других моих книг – вот, 2021 год: Образование для образованных. 2021 печатная, электронная: epub, fb2, pdfRead, mobi - купить книгу в интернет магазине, автор Анатолий Левенчук - Ridero. Удивительно, но в IT-подборке Ridero (Книги для IT-специалистов, инженеров, преподавателей и студентов технических вузов — Ridero) прямо сейчас аж три моих книги: “Визуальное мышление. Доклад о том, почему им не стоит обольщаться” (2018), и два тома “Системного мышления 2024” (сейчас обновлённый уже первый том в руководствах остался как “Системное мышление”, а второй стал “Системным моделированием”, в Ridero это до сих пор два тома одной книги).

hf_20260123_190255_f8c8aafb-9668-41fc-b580-b09d0052a5b2

5 лайков