Когда «Лестницы причинности» недостаточно
(Пресс-релиз от 2025-11-23T19:21:00Z Perplexity Pro [ChatGPT-5.1])
Сегодня в диалоге между Андреем Анатольевичем Телятниковым и ИИ‑системой Perplexity Pro (в режиме ChatGPT-5.1+) был поставлен принципиальный вопрос: как строить причинно‑следственные связи, если нет надёжных инструментов отбора исходных данных для “Лестницы причинности” Дж. Перла — особенно в условиях пропаганды, фейков и жёстких ограничений по времени и ресурсам?
Кому и зачем это нужно
От качества причинно‑следственного вывода зависят решения исследователей, инженеров, менеджеров во многих из обличиях (врачи, военные, пожарные… и всех, кто опирается на “честные данные”, а не только на свою интуицию).
В реальной жизни решения почти всегда принимаются в условиях ограниченного времени, денег и психических ресурсов, и, в отличие от «эргодических систем», например, в математике/физике, у человека нет бесконечного числа попыток — одна ошибка может стоить репутации, карьеры, ... про жизнь не будем… А! всякое такое “в отношениях”, которое создаётся годами, утрачивается вмиг и уже никогда не восстановить заново. Исследования по квантово‑подобным исчислениям (см. ниже список статей А.Ю. Хренникова) подчёркивают, что в ряде систем (включая когнитивные) динамика неэргодична: отдельные траектории не усредняются «по времени» до безопасного статистического результата, и цена одного неверного шага не компенсируется серией последующих успехов. Когда решения принимают «человеческие агенты» в уникальных жизненных ситуациях, они не могут просто сказать «попробуем ещё раз» — слово, сказанное «как шутка», или один некорректный публичный вывод могут необратимо разрушить доверие и коммуникацию.
На этом фоне надежда «подставить в “Лестницу причинности” хорошие данные, чтобы на выходе получить “правильный ответ”», оказывается наивной утопией, если нет чёткого понимания, что считать “хорошими данными” и кто нам эти данные “назначает с выше”.
От Дж. Перла до герменевтики
1. «Лестница причинности Перла»
Мы обсуждали классическую трёхуровневую схему Перла — ассоциации (“что с чем связано?”), интервенции (“что будет, если сделать X?”) и контрфактуалы (“что было бы, если бы…?”) как стандарт современного каузального вывода.
Перл прямо пишет, что данные «глупы» (“dumb data”) и сами по себе не отвечают на вопрос «почему?», а лишь дают частоты $P(Y|X)$, и настаивает, что сначала нужно задать каузальную модель и научный вопрос, а уже потом собирать и подставлять данные.
But our present-day scientific world presents a new challenge to sound reasoning about causes and effects. … many researchers in artificial intelligence would like to skip the hard step of constructing or acquiring a causal model and rely solely on data for all cognitive tasks. The hope—and at present, it is usually a silent one—is that the data themselves will guide us to the right answers whenever causal questions come up. I am an outspoken skeptic of this trend because I know how profoundly dumb data are about causes and effects. For example, information about the effects of actions or interventions is simply not available in raw data, unless it is collected by controlled experimental manipulation
2. «Рациональная работа» как популярная интерпретация
В «1. Рациональной работе» (РР) “Лестница причинности” упоминается и используется как удобный способ структурировать вопросы к данным и задачам, но без формализма Перла, без обсуждения идентифицируемости и без явного слоя проверки достоверности фактов. Основной акцент в РР сделан на организационной рациональности, управлении загрузкой (WIP), стандартах и онтологиях (BORO, ISO,…), а качество данных фактически делегируется выбору «авторитетных источников» вроде “стандартов”, “мнений гуру” и прочей Википедии.
3. Современные работы по LLM и причинности
Мы исследовали серию статей о каузальном рассуждении больших языковых моделей (LLM), где показывается, что текущие модели:
-
часто ведут себя как “causal parrots” — «каузальные попугаи», воспроизводящие известные причинные утверждения, но не строящие новые причинные знания;
-
в каузальных задачах опираются в основном на уже встроенное «знание мира» и имена переменных, а не на предоставленные численные данные;
-
уязвимы к внешнему контрфактическому знанию и легко сбиваются ненадёжными источниками, даже если внутренне «знают» правильный ответ.
Эти работы усиливают вывод: без отдельного уровня анализа источников и контекстов данные, подаваемые в каузальные модели или LLM, остаются эпистемологически хрупкими.
4. LLM как источник «синтетических данных»: почему это не решает проблему
Отдельно мы опирались на исследование Mayor et al. (2025), где проверялось, могут ли LLM реалистично симулировать устные телефонные разговоры и использоваться как заменитель реальных диалогов в научных исследованиях. Авторы показывают, что разговоры, порождённые GPT‑4, Claude и др., систематически отличаются от человеческих по длине реплик, структуре выравнивания, использованию координационных маркеров (oh, uh-huh, okay) и устройству открытий/закрытий, а люди в большинстве случаев успешно отличают длинные LLM‑диалоги от реальных. Ключевая формулировка авторов: «кажется нереалистичным исправить все эти проблемы с помощью дополнительных инструкций в промте» и «неоправданно предполагать, что LLM в обозримом будущем смогут реалистично симулировать устные беседы с достаточной детализацией».
Это означает: сегодня LLM не могут считаться надёжным инструментом ни как генератор данных, ни как “чёрный ящик” для выбора достоверных фактов.
5. «Квантово‑подобная когнитивная модель» А.Ю. Хренникова
Работы А.Ю. Хренникова показывают, что во многих когнитивных экспериментах наблюдаются нарушения классической формулы полной вероятности и эффекты порядка вопросов, которые естественно описываются в терминах квантовой вероятности и интерференции вероятностей. Автор подчёркивает, что квантово‑подобные модели полезны как эффективный инструмент описания контекстуальности и некоммутативности (AB ≠ BA) в человеческих оценках, но не как «запрет» на классическую вероятность; это важный математический ресурс именно для моделирования влияния контекста и порядка интерпретаций на выводы.
6. Цифровая герменевтика и семиотика LLM
В обзоре по цифровой герменевтике (Romele et al., с опорой на Capurro) показано, что в цифровой среде интерпретатор «ослаблен» и включён в сеть человеческих и нечеловеческих акторов, а информационные технологии сами становятся интерпретационными машинами, которые надо не только использовать, но и критически анализировать и при необходимости реконфигурировать. Это создаёт теоретическую основу для отдельной герменевтической оси: прежде чем что‑то считать «данными», нужно понять, в какой «языковой игре» и под чьим влиянием эти данные вообще были порождены и с какой целью подаются пользователю.
Выявленные «пороки» Перла и «Рациональной работы»
В нашем диалоге мы пришли к выводу, что и книга Перла, и «Рациональная работа» имеют ряд системных слепых зон, которые в контексте «Определения@A2Tцкий» (см. выше) следует считать именно багами, а не фичами:.
-
(1) Отсутствие “акаузального уровня” — методов отбора фактов до модели.
Перл даёт мощный аппарат для ответа на вопрос «почему B является следствием A», если у нас уже есть: (а) верная каузальная диаграмма и (б) честно собранные данные (обычные наблюдения или результаты RCT). Но он не обсуждает задачу: как отличить честные факты от сфабрикованных, как выявить пропагандистские искажения, как поступать, если «данные» сознательно подогнаны под ожидаемые корреляции — всё это выносится за скобки.
«Рациональная работа» фактически следует той же логике: Лестница причинности используется как способ «задавать умные вопросы к данным», а качество самих данных делегируется доверию к стандартам, онтологиям и общим здравым смыслам экспертов, без описания процедур источниковедческой критики.[^2][^8] -
(2) Молчаливое допущение честности экспериментов и источников.
Инструменты Перла — рандомизированные контролируемые испытания, контроль confounding через диаграммы, тестируемые следствия модели — отлично работают, если все участники играют по правилам и никто не подделывает протоколы, не «чистит» регистры и не генерирует массовые фейки.
В современном медиапространстве это допущение заведомо невыполнимо, но ни Перл, ни «Рациональная работа» игнорируют сценарии преднамеренного искажения данных как центральной угрозы “причинности”. -
(3) Игнорирование радикальной ограниченности времени и попыток.
В реальных решениях человек живёт в режиме «одно неверное клиническое заключение — и пациента не вернуть», «одна непроверенная публикация — и репутация под вопросом», «одно необдуманное публичное заявление — и доверие разрушено». Ни у Перла, ни в «Рациональной работе» нет явно прописанной модели, которая учитывала бы неэргодичность человеческой жизни и конечность числа попыток как ограничение самой каузальной методологии (наоборот, обсуждение идёт как будто у исследователя есть бесконечное время поправить модель и собрать ещё данных. Ага, “бесконечноё всё” — хорошая идеологема для “пропитки” неофитов. Но жизнь гораздо богаче “наших праведных мемов”). -
(4) Наивная опора на LLM и «синтетические данные»
РР рассматривает LLM как полезный инструмент мышления, но не даёт критерия, когда и в каком виде AI-выводы могут считаться надёжными данными, а исследования Mayor et al. и Cuskley et al. показывают, что и в диалогах, и в языковом поведении, LLM существенно расходятся с реальными человеческими паттернами и не могут служить прямой заменой человеческих выборок.
“Пороки”, а не “скрытые возможности”: LLM — это, скорее, не столько ограничение модели, сколько скрытый источник систематической опасности — смысловая «дыра» именно там, где решения в реальности необратимы и принимаются в условиях недоверия к источникам.
Наш текущий вывод: нужна третья ось — герменевтическая
Мы совместно сформулировали гипотезу: к классической “Лестнице причинности” необходимо добавить ещё одно измерение — герменевтическую ось, которая будет отвечать не за вычисление $P(Y|do(X))$, а за решение, какие X, Y и какие «факты» вообще допускать к входу в эту Лестницу.
В таком трёхмерном пространстве:
-
вертикаль остаётся Лестницей Перла (ассоциации → интервенции → контрфактуалы);
-
одна горизонталь описывает пространство данных и моделей (как в SCM и современных LLM‑каузальных работах);
-
вторая горизонталь — герменевтическая/парадигматическая ось, где:
-
явно фиксируются парадигмы (классическая эпистемология, прагматизм, герменевтика, квантово‑подобная когнитивная);
-
моделируются конкурирующие интерпретации одних и тех же текстов/наблюдений;
-
учитывается эффект порядка и контекста (AB ≠ BA), как это делает квантово‑подобная математика А.Ю. Хренникова для когнитивных задач.
Именно на этой герменевтической оси и должен жить «акаузальный вывод» — как набор процедур и критериев, отвечающих на вопрос «КАК ИМЕННО отбирать данные и формулировать кандидатов на A и B, чтобы минимизировать риск фейка и манипуляции ещё до запуска каузального двигателя Перла».
-
Пока ни один из рассмотренных источников не даёт готовой строгой методики такого рода, но все вместе они создают мощный аргумент, что без неё любая чисто каузальная модель остаётся эпистемологически однорукой.
…
Открытые направления для дальнейших обсуждений
-
Формализация “а каузального фильтра данных”.
Нужны конкретные процедуры (возможно, с использованием вычислений “квантово‑подобных вероятностей” и “мультипарадигмальных” вычислений), которые позволяли бы формально описывать и отслеживать, как разные контексты и интерпретации меняют статус фактов (данные / пропаганда / вымысел). -
Интеграция SCM Перла с герменевтическими и квантово‑подобными моделями.
Хорошо бы и поисследовать, как связать структурно‑каузальные модели с явной моделью интерпретатора и источников, не разрушая при этом прозрачность и проверяемость каузальных выводов ( fpf вряд ли тут годится…). -
Дизайн бенчмарков, учитывающих не только “правильность ответа”, но и надёжность входных данных.
Современные каузальные бенчмарки для LLM пока измеряют, насколько модель правильно оперирует уже заданной диаграммой и данными; следующим шагом, вероятно, будут задачи, где модель научат (а научат ли?) отбраковать или переосмысливать входные данные до применения каузальной логики. Скорее, нет — тут тот случай, когда “скрипач нужен”. -
Этика и ответственность: кто “имеет право” отсевать данные.
Даже если удастся формализовать герменевтическую ось, остаётся вопрос: можно ли доверить автоматизированной системе (без присутствия заинтересованного, но ответственного человека) право решать, какие данные считать легитимными, а какие — нет. Тут, скорее, выиграет тот, кто кричит громче. Но когда это останавливало независимых исследователей-одиночек… -
Учёт неэргодичности человеческой жизни в методологиях принятия решений.
Именно такие модели и нужны — те, в которых конечность времени, ресурсов и числа попыток не просто фон, а структурное ограничение самой архитектуры принятия решений, включая каузальный и акаузальный уровни. ( fpf … ? интеллект-стек 2026 ?)
Пресс-релиз составлен AI (Perplexity Pro) на основе совместного диалога с Андреем Анатольевичем Телятниковым и анализа представленных им источников.
зы.
… Теперь добавим ещё отличие имени от названного объекта, когда “если на клетке со львом написано “осёл” – не верь глазам своим”, имени типа объекта от имени значения.
С этим всем нейронные сетки страшно путаются, что живые, что не очень живые. Так, у нежити регулярно появляется DescribedEntityRef, DescribedEntity воспринимается не как имя слота, а как сама описываемая “Entity” (ага, как “описываемая Entity”, кавычки поставлены по-другому), как раз проблема с “невозможно понять, что там как называется в слоте кортежа” – а также в ситуации с системой во множестве ролей, функцией со множеством параметров, сигнатурой и т.д. Онтология – это не математика, не исправление ошибок в коде. Это связка между математикой (язык, которым всё называется) и реальной жизнью (нарезка мира на какие-то объекты, похожие в своём поведении на математические объекты), но при этом ещё и надо учитывать лексику – чтобы имена как-то соответствовали тому, что хочется выразить. Вот это всё “первые принципы”: как мы говорим о мире так, чтобы не путаться на каждом шагу. Вот это и надо тренировать в мышлении. И вот я уже 45 лет тренирую, но всё равно иногда путаюсь: уж больно убедительный тон у нежити, и я ей прощаю ошибки там, где должен был бы жестко на эти ошибки указать. Да, “семантический треугольник = эпистема с обсуждаемыми слотами “about, content, token” и замолчанными остальными, и этих остальных там – до чёртиков”.
FPF (в редакции от 2025-11-21T19:05:00Z), в ходе допросов, категорически отрицал у себя унутре холон “герменевтика”. Но допрос с пристрастием показал, что FPF “синтезирует внутренню герменевтику”… в рамках своей же “нормативной онтологии”…
45 лет спустя: ищем корень зла, и находим его в понятии “места в отношении”
Проходит 45 лет – и я последние дней пять борюсь опять с этим семантическим треугольником, поскольку мне надо его внятно изложить как один из первых принципов в форме, понятной для нежити. Причём некоторое время назад я это уже начерно сделал, это паттерн “C.2.1 – U.Episteme — Semantic Triangle via Components”, где даже уже сказано, что там не совсем треугольник, а даже возможный параллелограмм, и в этот параллелограмм не входит даже носитель, и даже не входит описываемый эпистемой предмет.В новом заходе я работал над графом трансдукций (ага, “как записать операции, которыми мы строим дом или готовим борщ”, всё как 45 лет назад), дальше понимаем, что их как-то надо многоаспектно описать – и для этого нет ничего лучше ISO 42010, обнаруживаем, что у нас есть уже три разных описания того, как делать описания:
- как пакетировать-структурировать самые разные описания (паттерн MVPK). Идея в том, что “описание описаний” тоже имеет views: PlainView, TechCard, InteropCard, AssuranceLane for every edge/node where publication occurs.
- а ещё инженерные views, хорошо знакомое системное описание по ISO 42010: функциональное, конструктивное и т.д. Этого нигде нет, поэтому записано прямо как часть паттерна E.TGA – (Eulerian) Transduction Graph Architecture".
- ещё у нас есть strict distinction между объектом и его описанием, а также спецификацией I/D/S (intention, description, specification). Интенсиональный объект (всё что угодно, что попало во внимание), его описание и более-менее (начиная с уровня формальности описания F=4) формальное описание уже с именем “спецификация”. Дико криво, но всё руки не доходили: там ведь два разных отношения, держать их вместе – абсолютно плохо в части модульности.
Но мало ли. Время-то не стоит на месте…
Перечень литературных и прочих источников
Ниже приведён консолидированный библиографический список всех файлов, загруженных в наш чат и фактически использованных в анализе к текущему моменту (23.11.2025, 15:47), с максимальным использованием выходных данных, явно присутствующих в самих файлах и их метаданных.
1. Книги и внутренние методические материалы
-
Pearl, J., & Mackenzie, D. (2018). The Book of Why: The New Science of Cause and Effect. First Edition, May 2018. Basic Books. (По файлу: “Judea Pearl, Dana Mackenzie — The_book_of_why_the, May 2018 (b-ok.xyz).md”).
-
System Prompt «А2Тцкий Эпистемолог-Логик-Онтолог»,
ver. 0.0.2_HYBRID_2025-10-28 -
«2025‑11‑21 _ 18‑40 — “1. Рациональная работа”» (вер. от 2025, 21 ноября).
-
«2025‑11‑21‑_-18‑40 — PSS и Толкования: фрагмент из “1. Рациональная работа”» (2025). Внутренний рабочий фрагмент (расширенные пояснения и толкования к основному документу “1. Рациональная работа”).
2. Статьи по каузальности и Large Language Models (arXiv)
-
Cai, H., Liu, S., & Song, R. (2024). Is Knowledge All Large Language Models Needed for Causal Reasoning? arXiv:2401.00139v2. University of California, Irvine; North Carolina State University; Amazon.2401.00139v2.pdf
-
Wu, A., Kuang, K., Zhu, M., Wang, Y., Zheng, Y., Han, K., Li, B., Chen, G., Wu, F., & Zhang, K. (2024). Causality for Large Language Models. arXiv:2410.15319v1. Zhejiang University; Mohamed bin Zayed University of AI; Carnegie Mellon University.2410.15319v1.pdf
-
Yang, L., Shirvaikar, V., Clivio, O., & Falck, F. (2024). A Critical Review of Causal Reasoning Benchmarks for Large Language Models. arXiv:2407.08029v1. Department of Statistics, University of Oxford.2407.08029v1.pdf
-
Zhang, C., Bauer, S., Bennett, P., Gao, J., Gong, W., Hilmkil, A., Jennings, J., Ma, C., Minka, T., Pawlowski, N., & Vaughan, J. (2023). Understanding Causality with Large Language Models: Feasibility and Opportunities. arXiv:2304.05524v1.2304.05524v1.pdf
-
Liu, Y., Huang, L., Li, S., Chen, S., Zhou, H., Meng, F., Zhou, J., & Sun, X. (2023). RECALL: A Benchmark for LLMs Robustness Against External Counterfactual Knowledge. arXiv:2311.08147v1. Peking University; WeChat AI, Tencent Inc.
3. Квантово‑подобное моделирование когниции и информации (A. Хренников и соавт.)
-
Khrennikov, A. (2023). Open systems, quantum probability and logic for quantum-like modeling in biology, cognition, and decision making. arXiv:2304.08599v1 (quant-ph), April 19, 2023. Linnaeus University, International Center for Mathematical Modeling in Physics and Cognitive Sciences, Växjö, Sweden.
-
Sergi, A., Messina, A., Vicario, C. M., Martino, G., & Khrennikov, A. (2023). A Quantum-Classical Model of Brain Dynamics. arXiv:2301.09569v4 (q-bio.NC), March 30, 2023. Университеты Messina, Palermo, Durban University of Technology и Linnaeus University.
-
Shor, O., Benninger, F., & Khrennikov, A. (2025). Relational information framework, causality, unification of quantum interpretations and return to realism through non-ergodicity. Scientific Reports, s41598‑025‑90225‑7 (PDF-файл “2025-03-10-A.-Khrennikov-s41598-025-90225-7.pdf” содержит авторскую версию статьи с указанным DOI).
4. Герменевтика, цифровая герменевтика и семиотика LLM
-
Romele, A., Severo, M., & Furia, P. (2018). Digital hermeneutics: From interpreting with machines to interpretational machines. AI & Society. Preprint / author’s manuscript: “Digital-Hermeneutics_FINAL.pdf” (содержит ссылку на опубликованную версию: DOI 10.1007/s00146‑018‑0856‑2).
-
Zovko, M. (2020). Not minds but signs: Reframing LLMs through semiotic lenses. AI & Society. PDF “ZovkoAISociety10.1007_s00146-020-01052-5.pdf” представляет издательскую версию статьи с указанным DOI, год публикации в файле не полностью эксплицирован, но код DOI указывает на 2020 год; автор и журнал отражены на титульной странице.
-
Zovko, M. (n.d.). Not minds but signs: Reframing LLMs through semiotic lenses. Авторская/предпечатная версия статьи в формате PDF (“Not_Minds_but_Signs_Reframing_LLMs_through_Semiot.pdf”), без явных выходных сведений о журнале и годе; совпадает по названию и автору с опубликованной версией в AI & Society.
-
Cerny, L. (n.d.). Semiotic and Hermeneutic Aspects of Translation (файл “LotharCernySemioticandHermeneuticAspectsofTransla.doc”). Машинописная/документная версия статьи или главы; в самом файле указано имя автора (Lothar Cerny), но отсутствуют чёткие данные о журнале/издателе и годе; текст посвящён семиотическим и герменевтическим аспектам перевода.
5. LLM, язык и когниция (когнитивная наука, ограничения LLM)
-
Cuskley, C., Woods, R., & Flaherty, M. (2023). The Limitations of Large Language Models for Understanding Human Language and Cognition. Журнал: Open Mind (PDF “opmi_a_00160.pdf” содержит статью с библиографической пометкой: Open Mind, opm00160, pp. 1058–1083).
-
Mayor, E., Bietti, L. M., & Bangerter, A. (2025). Can Large Language Models Simulate Spoken Human Conversations? Cognitive Science, 49, e70106. DOI: 10.1111/cogs.70106. (PDF “Cognitive-Science-2025-Mayor-Can-Large-Lang.pdf” содержит полные выходные данные: журнал, том, год, DOI).
-
[Не полностью идентифицированная статья по LLM и оценке / бенчмаркам] (2025). PDF “2025.findings-acl.660.pdf” представляет собой статью из сборника Findings of ACL 2025 (по названию файла и фронт‑материалу), посвящённую анализу или оценке LLM; авторы и точное название явно указаны в самом PDF, но в рамках текущего анализа текст детально не разбирался, поэтому здесь фиксируется только факт существования публикации в корпусе.
6. Прочие загруженные, но почти не использованные файлы
- “2505.17080v1.pdf” (arXiv:2505.17080v1). Файл представляет собой препринт по тематике, связанной с ИИ или когницией (точное название и авторы указаны на титульной странице PDF; в ходе нашего анализа этот текст практически не использовался, кроме суммарного просмотра).
Все перечисленные записи опираются на фактически имеющиеся в файлах титульные страницы, метаданные (названия, авторы, годы, журналы, DOI) и/или явно зашитые в имя файла идентификаторы (arXiv‑ID, DOI), без добавления внешних, не подтверждённых этим корпусом сведений. Если что, то пишите в комментах — дам ссыль на Google-Диск. Статьи реальные, статьи скачены.



