3,583 papers
arXiv:2605.04313 77 5 мая 2026 г. FREE

Graph-Guided Causal Reasoning: трёхшаговый промпт для причинно-следственного анализа без ложных связей

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM не понимает причины — она запоминает совпадения. Больные часто принимают лекарства → модель решает, что таблетки вызывают болезнь. Акции запускают перед праздниками, выручка растёт в праздники → модель решает, что акции двигают выручку. Это не анализ — это запоминание того, что встречается рядом. Метод Graph-Guided Causal Reasoning позволяет разобрать запутанную ситуацию с несколькими переменными и получить вывод о реальных причинах, а не о совпадениях. Фишка: перед ответом заставить модель явно нарисовать карту — кто на что влияет и в каком направлении. Три шага подряд в одном промпте: выписать переменные → построить карту "A → B" → рассуждать по карте. Ложные связи просто не попадают в карту — и не попадают в финальный вывод.
Адаптировать под запрос

TL;DR

LLMs систематически путают корреляцию с причинностью — и из-за этого дают неверные выводы в анализе. Когда в тексте присутствует несколько переменных, модель цепляется за то, что происходит вместе, а не за то, что что вызывает. Это напоминает врача, который решает, что «приём таблеток вызывает болезнь», потому что больные люди чаще принимают лекарства.

Главная находка: LLM рассуждает по статистическим паттернам из обучающих данных, а не по логике причинно-следственных цепочек. Добавьте в контекст несколько лишних переменных, немного неполной информации или одну скрытую причину — и стандартный промпт начинает давать уверенно неправильные ответы. При этом Chain-of-Thought (пошаговое рассуждение) помогает, но не решает проблему: модель всё равно рассуждает по корреляциям, просто развёрнуто.

Решение: перед ответом заставить модель явно построить карту причин и следствий — кто на что влияет и в каком направлении. Это трёхшаговый процесс: извлечь переменные → нарисовать причинную карту → рассуждать по этой карте, а не по контексту напрямую.


🔬

Схема метода

Всё выполняется в одном промпте, три шага подряд:

ШАГ 1: ИЗВЛЕЧЕНИЕ ПЕРЕМЕННЫХ
Найти все ключевые сущности в ситуации → список переменных с ролями
(что является причиной, что следствием, что просто фоном)

ШАГ 2: ПОСТРОЕНИЕ ПРИЧИННОЙ КАРТЫ
Для каждой пары переменных: что вызывает что? → текстовый граф
Формат: "A → B → C" или "X влияет на Y, но не наоборот"
Отдельно: что просто коррелирует, но НЕ является причиной

ШАГ 3: РАССУЖДЕНИЕ ПО КАРТЕ
Ответить на вопрос, опираясь на карту → финальный вывод
Не по тексту напрямую, а по построенной структуре

🚀

Пример применения

Задача: Владелец кофейни в Москве видит: в месяцы, когда он запускает акции во ВКонтакте, выручка растёт. Но также растёт в месяцы перед праздниками. И ещё — когда открывается соседний офисный центр. Вопрос: что реально двигает выручку, а что просто совпадает?

Промпт:

Ситуация: кофейня в Москве. Есть несколько наблюдений:
— В месяцы с акциями во ВКонтакте выручка выше на 20%
— В предпраздничные месяцы (февраль, март, май, декабрь) выручка тоже выше
— Открытие нового офисного центра рядом совпало с ростом выручки
— Акции чаще запускаются именно перед праздниками
— Средний чек не меняется — растёт только количество чеков

Реши задачу в три шага:

Шаг 1. Выпиши все переменные: что здесь является возможной причиной, 
что — следствием, что — просто фоновым фактором.

Шаг 2. Построй причинную карту: что реально вызывает что? 
Нарисуй цепочки в формате "A → B". 
Отдельно укажи что просто коррелирует, но НЕ является причиной.
Объясни, откуда берётся ложная связь между акциями и выручкой.

Шаг 3. Опираясь только на карту из шага 2 — ответь: 
что реально драйвит выручку? 
Что стоит масштабировать, а что — совпадение?

Результат: Модель покажет три явных шага. В шаге 2 выявит скрытую переменную — праздничный сезон влияет и на запуск акций, и на выручку одновременно, создавая ложную причинную связь. В шаге 3 на основе карты даст вывод: офисный центр — реальная причина (устойчивый прирост трафика), праздники — реальный разгонщик, акции — следствие сезона, а не драйвер сами по себе.


🧠

Почему это работает

Слабость LLM: Модель видит текст и ищет в нём паттерны — что встречается рядом с чем. Если акции и рост выручки часто упоминаются вместе, модель делает вывод «акции вызывают рост». Это не логика причин — это запоминание совпадений. Добавьте любую постороннюю переменную, и она начнёт «тянуть» вывод на себя.

Сильная сторона LLM: Модель хорошо умеет следовать явной структуре. Если вы скажете «вот карта: A вызывает B, B вызывает C» — модель будет рассуждать по этой карте, а не искать ассоциации в тексте. Структурная формулировка переключает режим работы.

Как метод использует это: Шаг 2 — самый важный. Заставляя модель явно зафиксировать "что вызывает что", мы создаём барьер между корреляцией и причинностью. Дальнейшее рассуждение идёт уже не по тексту, а по карте — и ложные связи туда просто не попадают.

Рычаги управления: - Детализация шага 2 — попросить указать направление связи (A → B, а не B → A) → модель реже путает причину со следствием - "Скрытые переменные" — явно попросить найти переменные, которые влияют на несколько факторов сразу → выявляет скрытые причины - "Что НЕ является причиной" — добавьте этот вопрос в шаг 2 → убирает ложные связи до рассуждения - Глубина карты — для простых ситуаций достаточно одного уровня цепочек; для сложных просите 2-3 уровня вложенности


📋

Шаблон промпта

Ситуация: {описание задачи с несколькими переменными и наблюдениями}

Реши задачу в три шага:

Шаг 1. Выпиши все переменные из ситуации. 
Для каждой укажи роль: возможная причина / следствие / фоновый фактор.

Шаг 2. Построй причинную карту в формате "A → B → C".
— Что реально вызывает что? Только прямые причины, не совпадения.
— Что просто коррелирует, но НЕ является причиной — вынеси отдельно.
— Есть ли скрытые факторы, которые влияют сразу на несколько переменных?

Шаг 3. Опираясь только на карту из шага 2, ответь на вопрос: {конкретный вопрос}

Плейсхолдеры: - {описание задачи} — ситуация с несколькими факторами, которые «что-то делают» друг с другом: бизнес-анализ, поведение клиентов, причины проблемы, цепочка событий - {конкретный вопрос} — что вы хотите выяснить: что вызвало результат, что стоит изменить, что является настоящей причиной


🚀 Быстрый старт — вставь в чат:

Вот шаблон Graph-Guided Causal Reasoning. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит о переменных ситуации и о финальном вопросе — потому что без них нельзя построить причинную карту. Она возьмёт трёхшаговую структуру из шаблона и адаптирует под вашу задачу.


⚠️

Ограничения

⚠️ Качество карты = качество вывода: Если в шаге 2 модель неверно определила направление связи (перепутала причину и следствие), рассуждение в шаге 3 будет хуже, чем без карты вообще. Проверяйте причинную карту перед тем как доверять финальному выводу.

⚠️ Слабее на слабых моделях: Метод значительно лучше работает с GPT-4/Claude уровня — они точнее строят граф. Менее мощные модели делают больше ошибок уже на шаге 2, что тянет за собой неверные выводы.

⚠️ Чем больше шума, тем ниже точность: При накоплении нескольких видов «помех» (неполные данные + посторонние переменные + скрытые причины одновременно) точность падает даже у лучших моделей. Если ситуация очень запутанная — разбивайте на подзадачи.

⚠️ Не для простых вопросов: Если причинно-следственная связь одна и очевидна — трёхшаговая структура избыточна. Метод раскрывается на задачах с несколькими переменными и неочевидными связями.


🔍

Как исследовали

Команда создала синтетический датасет из 10 617 вопросов-ответов. Логика была простой: сначала сгенерировать правильную причинно-следственную структуру (кто что вызывает), потом обернуть её в естественный текст, а потом намеренно «зашумить» — добавить лишние переменные, перевернуть направление связей, скрыть часть информации. Это позволило точно контролировать, какой именно вид помехи сбивает модели.

Самый интересный результат: GPT-4 без структурной помощи даёт 62.8% точности на чистых задачах, а с graph-guided подходом — 80.7%. Разрыв растёт под шумом: GPT-4 падает до 48–54% при сложных помехах, graph-guided держится на 70–77%. Стандартный Chain-of-Thought помогает, но недостаточно — он всё равно рассуждает по тексту, а не по карте.

Неожиданный поворот: неправильная карта хуже, чем её отсутствие. Когда исследователи давали модели случайно перемешанный граф (не правильную карту, а именно неверную) — точность падала до 60%, ниже чем у модели вообще без графа (65%). Это значит, что структура — это не просто «помощник», это рамка, которой модель доверяет безоговорочно. Если рамка кривая — вывод хуже.


💡

Адаптации и экстраполяции

1. Явный поиск скрытых причин

Если ситуация сложная — добавьте в шаг 2 отдельный вопрос:

🔧 Техника: явный запрос скрытых переменных → выявление неочевидных причин

Шаг 2+: Есть ли в ситуации переменная Z, которую мы не видим напрямую, 
но которая влияет одновременно на A и на B? 
Если да — добавь её в карту как [скрытая причина].

Это работает для бизнес-анализа: «почему упали продажи у нас и у конкурентов одновременно» — искать скрытую переменную (сезонность, изменение рынка).


2. Комбинация с Chain-of-Thought для контрфактуального анализа

После построения карты добавьте:

🔧 Техника: контрфактуальный вопрос через карту → анализ "что было бы если"

Шаг 3 (расширенный): На основе карты ответь:
— Что реально происходит сейчас?
— Если убрать переменную X из цепочки — как изменится результат?
— Какое вмешательство даст наибольший эффект при наименьших затратах?

Применение: стратегические решения, где нужно понять «за какой рычаг тянуть».


🔗

Ресурсы

NoisyCausal: A Benchmark for Evaluating Causal Reasoning Under Structured Noise

Авторы: Zhi Xu, Yun Fu — Northeastern University

Связанные работы из исследования: Cladder (Jin et al., 2023), Chain-of-Thought (Wei et al., 2022), Tree-of-Thought (Yao et al., 2023)


📋 Дайджест исследования

Ключевая суть

Обнаружено: LLM не понимает причины — она запоминает совпадения. Больные часто принимают лекарства → модель решает, что таблетки вызывают болезнь. Акции запускают перед праздниками, выручка растёт в праздники → модель решает, что акции двигают выручку. Это не анализ — это запоминание того, что встречается рядом. Метод Graph-Guided Causal Reasoning позволяет разобрать запутанную ситуацию с несколькими переменными и получить вывод о реальных причинах, а не о совпадениях. Фишка: перед ответом заставить модель явно нарисовать карту — кто на что влияет и в каком направлении. Три шага подряд в одном промпте: выписать переменные → построить карту "A → B" → рассуждать по карте. Ложные связи просто не попадают в карту — и не попадают в финальный вывод.

Принцип работы

Стандартный промпт: дал контекст, спросил вопрос, получил уверенный ответ с ошибкой. Graph-Guided — другой порядок. Сначала модель строит причинную карту: явно фиксирует "A вызывает B" и отдельно — "X просто совпадает с Y, но не является причиной". Только потом отвечает. Но уже по карте, а не по исходному тексту. Ключевой барьер — явно попросить выписать что коррелирует, но НЕ является причиной. Это происходит до рассуждения, а не внутри него. Пошаговое рассуждение (CoT) одно не спасает — модель всё равно рассуждает по ассоциациям из текста, просто развёрнуто. Карта создаёт промежуточный слой, через который ложные связи не проходят.

Почему работает

LLM обучена на текстах, где авторы сами часто путают корреляцию с причиной — и переняла эту привычку. Видит "акции" и "рост выручки" рядом → ставит между ними знак причины. Добавьте в ситуацию лишнюю переменную — она начнёт "тянуть" вывод на себя. Явная карта переключает режим: вместо "ищи паттерны в тексте" модель следует правилам, которые сама же сформулировала в шаге 2. Это как дать судье список критериев до слушания дела — а не просить вынести приговор по ощущению.

Когда применять

Бизнес-анализ, диагностика проблем, разбор данных → для задач где несколько факторов влияют на результат и неясно что реально причина, а что просто совпало. Особенно полезно когда в ситуации есть шум: неполные данные, посторонние переменные, подозрение на скрытый фактор который тянет всё за собой. НЕ подходит: если причинно-следственная связь одна и очевидна. Трёхшаговая структура там избыточна.

Мини-рецепт

1. Опишите ситуацию подробно: все наблюдения и переменные, которые как-то связаны друг с другом. Несколько факторов, несколько наблюдений. Чем больше деталей — тем точнее карта.

2. Попросите выписать роли: для каждой переменной — возможная причина, следствие или просто фоновый фактор.

3. Попросите построить карту в формате "A → B → C". Обязательно добавьте: "что просто совпадает, но НЕ является причиной — вынеси отдельно". Это не опция — это главный барьер метода.

4. Добавьте вопрос про скрытые факторы: "Есть ли переменные, которые влияют сразу на несколько факторов одновременно?" — это выловит то, что создаёт ложные связи.

5. Финальный вопрос формулируйте так: "Опираясь только на карту из шага 2, ответь: [твой вопрос]". Слово "только" важно — без него модель снова полезет в исходный текст.

Примеры

[ПЛОХО] : Акции в соцсетях влияют на выручку кофейни? В месяцы с акциями выручка выше на 20%
[ХОРОШО] : Ситуация: кофейня в Москве. Наблюдения: в месяцы с акциями во ВКонтакте выручка выше на 20%. В предпраздничные месяцы выручка тоже выше. Акции запускают именно перед праздниками. Рядом открылся офисный центр — совпало с ростом трафика. Средний чек не меняется, растёт только количество чеков. Шаг 1. Выпиши все переменные. Для каждой укажи роль: возможная причина / следствие / фоновый фактор. Шаг 2. Построй причинную карту в формате "A → B". Что реально вызывает что? Что просто совпадает, но НЕ является причиной — вынеси отдельно. Есть ли скрытые факторы, которые влияют сразу на несколько переменных? Шаг 3. Опираясь только на карту из шага 2: что реально двигает выручку? Что стоит масштабировать, а что — просто совпадение? Модель в шаге 2 сама выявит: праздничный сезон влияет и на запуск акций, и на выручку одновременно — это скрытый фактор, который создавал ложную связь. В шаге 3 на основе карты даст вывод: офисный центр и праздники — реальные причины, акции — следствие сезона.
Источник: NoisyCausal: A Benchmark for Evaluating Causal Reasoning Under Structured Noise
ArXiv ID: 2605.04313 | Сгенерировано: 2026-05-07 05:36

Проблемы LLM

ПроблемаСутьКак обойти
Модель путает совпадение с причинойВ тексте несколько переменных. Две переменные часто встречаются рядом. Модель делает вывод: одна вызывает другую. Это не логика. Это запоминание совпадений из обучающих данных. Добавь постороннюю переменную — она «перетянет» вывод на себя. Проблема универсальна для любого анализа с несколькими факторамиПеред ответом заставь модель построить карту причин явно. Шаг 1: выпиши переменные. Шаг 2: укажи "A вызывает B" и "X просто совпадает с Y". Шаг 3: отвечай по карте, а не по тексту

Методы

МетодСуть
Карта причин перед ответом — три шагаИспользуй когда в задаче несколько факторов и нужно найти настоящую причину. Шаг 1: Выпиши все переменные. Для каждой укажи роль: причина / следствие / фоновый фактор. Шаг 2: Построй карту: "A B C". Что реально вызывает что? Что просто совпадает — вынеси отдельно. Есть ли скрытый фактор, который влияет на несколько переменных сразу? Шаг 3: Опираясь только на карту из шага 2, ответь на вопрос: {вопрос}. Почему работает: шаг 2 создаёт барьер между совпадением и причиной. Дальше модель рассуждает по карте, а не по тексту. Не работает: одна очевидная причина — структура избыточна. Слабые модели ошибаются уже на шаге 2 и тянут ошибку в шаг 3

Тезисы

ТезисКомментарий
Явная структура переключает модель с поиска совпадений на логикуМодель по умолчанию ищет: что в тексте встречается рядом с чем. Дай ей готовую структуру: "A вызывает B, B вызывает C" — и она будет рассуждать по этой структуре. Не по тексту. Механика: явный граф вытесняет запомненные паттерны. Применяй: в задачах с несколькими факторами сначала строй карту связей, потом задавай вопрос
📖 Простыми словами

NoisyCausal: A Benchmark for Evaluating Causal Reasoning Under Structured Noise

arXiv: 2605.04313

LLM не умеют в логику, они умеют в статистику, и в этом их главная беда при анализе данных. Фундаментальная механика тут проста: нейронка не понимает физический мир, она видит только соседство слов. Если в тексте «дождь» и «зонтики» постоянно мелькают рядом, модель делает вывод, что они связаны, но ей плевать, что из чего вытекает. Она путает корреляцию с причинностью, потому что для неё реальность — это просто набор букв, которые часто стоят в одном предложении.

Это как если бы инопланетянин прилетел на Землю и решил, что машины скорой помощи убивают людей, потому что там, где много врачей с сиренами, всегда полно трупов. Формально он прав — связь есть, цифры сходятся. Но он в упор не видит истинную причину, потому что просто считает совпадения, не понимая, как устроена жизнь. Модель ведет себя точно так же: она видит «шум» и принимает его за чистую монету.

В исследовании NoisyCausal это проверили на прочность: моделям скармливали кучу переменных, где реальная причина была завалена горой мусорных совпадений. Выяснилось, что LLM моментально лажают, когда появляется структурированный шум. Например, если продажи растут одновременно с рекламой и открытием метро, модель с радостью припишет успех рекламе, даже если та была полным провалом. Она цепляется за запоминание паттернов, игнорируя логические цепочки, которые для человека очевидны.

Этот принцип универсален и касается не только кофейни или медицины. Он работает в финансовой аналитике, маркетинге и даже в отладке кода. Везде, где нужно отделить реальный рычаг влияния от случайного попутчика, современные LLM — это ненадежный советчик. Они склонны галлюцинировать связями там, где их нет, просто потому что «так чаще пишут в интернете».

Короче: никогда не проси нейронку найти причину успеха или провала на основе голых цифр в тексте. Она выдаст тебе красивую сказку о совпадениях, выдав их за глубокий анализ. Пока ты не научишь её фильтровать шум и строить жесткие причинно-следственные связи, её выводы будут стоить не дороже гаданий на кофейной гуще. Либо проверяй всё руками, либо готовься к тому, что твоя стратегия будет строиться на ложных выводах.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с