Для моделирования в реальном времени (цифровой двойник/digital twin, скорость моделирования имеет значение, проблемы алгоритмики как алгоритмов, дающих при заданной точности вычислений максимальную скорость счёта, тут всплывают в полной мере) тоже есть множество проблем, например, высокая скорость получается за счёт различных суррогатов48 Surrogates.jl: Surrogate models and optimization for scientific machine learning · Surrogates.jl моделей (быстрых аппроксиматоров сложных функций, например, нейросуррогаты получаются на базе нейронных сетей). No free lunch theorem гласит, что нет универсально быстрых алгоритмов: алгоритм, хороший для одной задачи будет плох для другой, и наоборот. И в каждом «общем решении» всё равно будут возникать (сотнями, тысячами!) многочисленные «частные случаи», требующие отдельных способов решения. Обсуждение качественного имитационного/simulations моделирования обычно связывают с суперкомпьютерами, это не случайно. Для удешевления и ускорения моделирования нужно делать прорывы в алгоритмике, менять физику компьютера (например, переходить к оптическим или квантовым вычислениям).
На мой взгляд, в этом абзаце зря опущено упоминание важных видов суррогатного/имитационного моделирования. Разговор с рамках “старой физики/инженерии”.
Меж тем, важнейшим модулем суррогатного моделирования сейчас становятся LLMs. Директору стадиона, который поминается в след абзаце, наверное важно моделировать поведение толп в случае пожара или давки. “Традиционно” бы сделали модель а-ля термодинамика или fluid dynamics в разных проходах стадиона. Но мне кажется, такая модель должна учитывать случайные события в толпе: выкрики, решения разных агентов о действиях. Едва ли тут можно обойтись без agent-based modelling (ABM, см. Книга про экономику технологических подрывов: Making Sense of Chaos (Doyne Farmer) - #2 от пользователя leventov) где люди моделируются как минимум отчасти (т.е. гибридно, напр. c supervenience, см. Towards a Research Program on Compositional World-Modeling – Topos Institute) LLM-агентами.
LLM/VLM или embedding predictive models (такие как JEPA) это не очень точные (или совсем не точные) суррогаты, но их главное преимущество в том, что ими сходу можно суррогировать практически все что угодно.
В принципе, в этом посте я во многом повторяю то, что писал почти год назад тут: Агентная, распределенная/реактивная алгоритмическая парадигма
Также, на мой взгляд, очень важно показать варианты того, как суррогатное моделирование становится инженерным, то есть, как получаются обоснованные (grounded) оценки риска. См. Гибридный интеллект для контрфактуального анализа, оценки кумулятивного риска, и коллективного обучения в критичных к безопасности сложных системах, [2408.05284] Can a Bayesian Oracle Prevent Harm from an Agent?. - Это байесовские подходы. Наверняка есть еще какие-то.
Обоснованные метрики риска/неопределенности/negative reward можно получать даже когда суррогатом/сэмплером траекторий выступает LLM. См. [2310.04363] Amortizing intractable inference in large language models и также множество методов по получению reward distribution не как ground truth а через разные косвенные способы, такие как примеры результатов (в случае моделирования толпы это могут быть какие-то case reports), частичные траектории, и т. д.
ChatGPT o1 делает похожее семплирование под капотом, но увы возвращает только max likelihood результат и даже не собственную оценку его риска/неопределенности (впрочем, последнего у нее скорее всего и нет, потому что они вряд ли использовали gflownet или RL maxent для тренировки o1, тогда как у них beach-head applications это математика и программирование).