Lytdybr -- от 16 апреля 2025

Готовлю слайды для моих ближайших мероприятий:
– тренировка 17 апреля (Telegram: View @system_school), там чётче можно показать, что делать с типами, эти слайды оказались важными.
– доклад 19 апреля “От школы менеджмента к клубу мастеров-создателей” на IX конференции (Девятая ежегодная конференция ШСМ "Современный системный менеджмент и инженерия-2025": ailev — LiveJournal), там будет попытка снять множество противоречий в метафорах (писал в Работа, образование, фитнес -- в противоречивом винегрете: ailev — LiveJournal и какие-то ходы в Апрель-май 2025: мои конференции, тренировки, семинары: ailev — LiveJournal).
– доклад 20 апреля “Программа “Организационное развитие””, это второй день IX конференции, секция системного менеджмента, и там не только ретроспектива, но и по планы изменений курсов “Инженерии личности” и “Системного менеджмента” (завтра вечером буду финализировать программу конференции – и принимать решение о том, каков же будет итоговый формат доклада)
– семинар 26 апреля (Telegram: View @welcomeSSM) по чеклистам/холстам/“системам уравнений”/мантрам/сюжетам в программе организационного развития, там длинный ряд “синонимов с нюансами”. Там уже более-менее готова первая часть с объяснениями (включая слайды про футбол и про флорентийский футбол – метафора “правил игры”), но надо ещё доделать слайды по самому содержанию.
– семинар 17 мая (пока запись не открыта, ещё месяц впереди) по обновлению курса “Системная инженерия”. Тут более-менее уже всё готово, и даже был прогон черновой версии на XI рабочей встрече INCOSE RUS (Заметки с XV рабочей встречи INCOSE RUS по проблемам системной инженерии : ailev — LiveJournal). Но вот после этого прогона таки надо внести изменения.
– … дальше уже не слайды, а переписка “Инженерии личности” и “Системного менеджмента” (и там оба текста будут отвечать на заботы HR, который ответственен за сообщество сотрудников, а это сообщество сотрудников состоит из людей, которые состоят из личности и организма, а ещё там боком проходит CIO, который ответственен за сообщество нежити, которое состоит из AI с инструментарием вроде корпоративного софта, а дальше всё вообще чудесато, и я над этим потихоньку размышляю).

Вот один из новых слайдов, который объясняет использование мета-моделирования в предлагаемой нами культуре мышления:
photo_2025-04-16_11-08-31

Новая работа Ванчурина и Гусева: моделирование молекул, которые получаются обучением атомов быть совместно молекулой. В этой онтологии обучающейся вселенной learning-based simulation of water molecules, which achieves comparable accuracy while being significantly more computationally efficient than standard physics-based simulations. Вот статья “Molecular Learning Dynamics”, [2504.10560] Molecular Learning Dynamics, вот рассказ по этой статье: https://www.youtube.com/watch?v=TnENhLHsdaE. We apply the physics-learning duality to molecular systems by complementing the physical description of interacting particles with a dual learning description, where each particle is modeled as an agent minimizing a loss function. In the traditional physics framework, the equations of motion are derived from the Lagrangian function, while in the learning framework, the same equations emerge from learning dynamics driven by the agent loss function. The loss function depends on scalar quantities that describe invariant properties of all other agents or particles. To demonstrate this approach, we first infer the loss functions of oxygen and hydrogen directly from a dataset generated by the CP2K physics-based simulation of water molecules. We then employ the loss functions to develop a learning-based simulation of water molecules, и вот тут как раз и получается примерно та же аккуратность/точность при много меньшем компьюте.

Новое исследование: богатенькие становятся такими генетически, их будущее не покупается, не берётся образованием, не берётся воспитанием. Это в среднем по больнице, конечно, тем не менее: генетика наше всё, лучшее образование даётся тебе главным образом в момент зачатия. We used Norwegian register data from 569,035 children (aged 10–14), linked to the Norwegian Twin Registry, and applied extended family behaviour-genetic models to disentangle sources of intergenerational transmission. Parental education correlated .31 with children’s school-achievement scores; this correlation was due to substantial genetic (68%) and smaller parental-environmental (12%) and extended - family environmental (20%) contributions. Parents and children are alike in educational outcomes because of a complex mix of genetic similarity, environmental effects of parental education, and environmental effects shared with the extended family. Тут фишка примерно такая же, как в eco-evo-devo: нужна благоприятная среда, чтобы раскрыть твои генетические особенности. Ибо никакая генетически одарённая рыбка не станет знаменитой, пытаясь вырасти даже во влажном субтропическом климате, ей всё-таки в окружении нужна вода. Если ты гениальный финансист, то при социализме тебе таки не быть миллиардером. Ну, и никаким светилом науки тебе не стать, если ты растёшь где-нибудь в центрально-африканской деревне. Вот статья: OSF, “Why educational inequality runs in families: Genetics matter more than environment”. Так что мы в нашем клубе создателей создаём среду, делаем “расширенную семью”, чтобы всем генетически одарённым было где и как раскрыть свой талант. Пока, конечно, не придёт AI и всех уравняет (не надо быть сильным, чтобы рыть экскаватором гору), а затем ещё и всю эту “генетику” можно будет поправить – “глупость как генетическая болезнь”, чего б её не полечить. Интересно, что попытки социального анализа сводятся к “справедливости-несправедливости”, и исходят из evo переспективы, иногда доводя её до evo-devo, но не дополного eco-evo-devo (например, вот тут три стадии изучения вопроса “талантливости детей богатых”: It's Not Who You Know, It's Who You Are - by Bryan Caplan).

“Большие конференции по AI как GAN архитектуры” — пусть мне AI напишет такую статью, подадим на конференцию по конференциям! LLM пишут работы всё лучше и лучше (generators), а LLM их критикуют всё лучше и лучше (discriminators). Это я реагирую на дискуссию в gonzo-обзорах по поводу LLM-review статей на конференцию, началось с Telegram. Системный подход нам указывает, что обсуждение работы review бессмысленно само по себе, как обсуждение discriminator в GAN архитектуре: надо обсуждать работу системы в целом, discriminator сам по себе — это просто блок функциональной архитектуры, его подхакивать надо по критериям, берущимся из надсистемы. Участвуют несколько факторов:
— собственно, GAN: качество статей на базе review будет становиться лучше, если агенты generator и discriminator обучаемы
— люди оказываются в этом плане менее обучаемы, быстро выходят на плато
— у сеток как раз выхода на плато пока нет, условно (с кучей оговорок-disclaimers, ибо кр) каждые 7 месяцев мы получаем прирост вдвое времени достойной работы по написанию статей и времени достойной работы по их критике (чисто по аналогии с работами по автомномному кодированию, иногда это называют new Moore’s law, это работа [2503.14499] Measuring AI Ability to Complete Long Tasks, “Measuring AI Ability to Complete Long Tasks”, со всеми многочисленными оговорками, ибо эта работа вызвала шквал критики – но сам подход, вроде, выживает). Поэтому “==вы находитесь здесь==” к нейросеткам (и не только нейросеткам, ибо там ещё быстро-быстро инкорпорируют графы знаний, облегчающие критику, то есть архитектуры там наследники Toolformer) применяется, а к людям ввиду неподчинения их обучения закону Мура — нет, не применяются, разве что придётся признать, что люди тоже с инструментами это всё делают, и как раз AI и есть этот инструмент. У врачей показано при этом, что врачи с AI работают хуже, чем AI без врачей (это не типовые работы вроде “LLM лучше врачей”, Multiple large language models versus experienced physicians in diagnosing challenging cases with gastrointestinal symptoms | npj Digital Medicine, а более интересные, где врачам давали и LLM как инструмент Towards accurate differential diagnosis with large language models | Nature, ибо врачи упрямы и не любят бросать свои гипотезы даже при наличии их критики).

Это ещё раз поднимает вопрос о том, надо или не надо печалиться или радоваться, что “AI отберёт работу”. Я бы становился тут на точку зрения потребителей: если AIs (множество их! не один!) отберёт работу, то людям будет тупо нечем платить этим AI, они останутся без ресурсов. Или устроят рынок, будут конкурировать друг с другом. Торговать при этом выгодней, чем воевать. Для потребителей всё происходящее – безусловный плюс, ибо полезняшки дешевеют быстрее, чем уменьшается оплата за их производство, а ещё придумываются новые и новые (бес)полезняшки, смотрите на предложения где-нибудь на Wildberries или Ozon. Диоген, который стоял на рынке и разглядывал изобилие товаров, не нужных человеку, сильно бы изумился. Опять же, есть ещё над чем работать: робототехника, наконец, должна сделать дома дешёвыми, нужда в ипотеке как кабале должна отпасть. Когда-то я был на школе по синтезу программ, ещё в начале 80х, и там в какой-то момент была высказана свежая мысль, в стихах: “Народу надо что? Решать задачу! А синтезом, иль лаптем — всё равно”. Вернёмся к ситуации статей на конференцию. И даже выкинем вопрос о том, где берутся ресурсы на все эти исследования, сколько они стоят и кто оплачивает (ага, налогоплательщики, они всегда об этом мечтали!). В случае разговоров о review папиров на конференции, которые могут уйти к AI “потому что AI банально лучше” (что не факт, AI критикуют пока плохо, хотя это быстро улучшается – писал в “Инженерные обоснования мокрыми и сухими нейросетками”, Инженерные обоснования мокрыми и сухими нейросетками: ailev — LiveJournal) тем самым надо смотреть:
— куда потом идут тексты папиров, что от них ожидается
— настраивать конференцию на это
— настраивать review на это
— настраивать написание папиров на это
— использовать весь доступный инструментарий, без разницы — лапоть, AI-система вроде экспертной системы старого времени, современные AI-агенты на LLM, специально обученные люди, инопланетяне или комбинация их всех.
— придётся, конечно, придумать какой-нибудь бенчмарк. Ну, или арену (при этом мы знаем, что с ареной из людей дела плохи, у меня текст об этом даже есть, про людскую желтизну, неаккуратность и попсовость — Людская (и AI тоже) желтизна, неаккуратность, попсовость: ailev — LiveJournal, написал по случаю оптимизации Llama-4 на предпочтения людей, а не оптимизацию на “служение истине”).

Повайбадминил: перенёс залайканные треки из яндекс.музыки в Spotify – LLM нашла правильные бесплатные сервисы, а затем помогла сделать список для загрузки “то, что у вас отсутствует ещё в Spotify, но есть в яндекс.музыке”. И когда я ткнул её, что вот же очевидно – она предлагает перенести строчку, которая одна и та же в двух файлах, abdullah i̇brahim - someday soon sweet samba – это в яндекс.музыке, и abdullah ibrahim - someday soon sweet samba – это в “только спотифае”, мне было отвечено, что в имени abdullah i̇brahim из Яндекс.Музыки используется не обычная i, а составной Unicode-символ (i + точка сверху), скорее всего из-за турецкой или азербайджанской раскладки. Чтобы избавиться от этих отличий, нужно привести все строки к одной нормальной форме (NFKD) и удалить combining characters (вроде \u0307, точек, диакритических знаков и пр.). Дальше – “Я сейчас это сделаю”. Дальше – “Скачать обновлённый файл”. Я регулярно был начальником программистов, у меня ж была первая в России коммерческая веб-студия. Поэтому могу оценить, каково это – поймать такой баг. Круто, да. И это я разговаривал с обычной 4o – первое, что подвернулось под руку, это явно не лидер в этой сфере. Всё-таки мир меняется, и сильно. Огромное число задач high code вдруг стали задачами low code.

А ещё Spotify мне кажется чуть глуховатым, хотя треков там явно больше и интересный подход к “музыке дня”: яндекс.музыка у меня платная и там много lossless, а Spotify у меня бесплатный, и там “обычное качество”. Аппаратура у меня во всех комнатах студийная, поэтому разница более чем ощутима. К хорошему быстро привыкаешь.

3 лайка