3,583 papers
arXiv:2605.02173 74 4 мая 2026 г. PRO

Длинный контекст ≠ глубокое понимание: как модели теряют способность думать цепочкой на 1М токенах

КЛЮЧЕВАЯ СУТЬ
Две модели, оба «миллионный контекст», один документ, один вопрос с цепочкой связей — Gemini выдаёт 100%, Qwen 3.6-plus — 0%. Метод явной декомпозиции цепочки позволяет надёжно вытаскивать многошаговые ответы из больших документов — даже когда модель теоретически «вмещает» всё. Каждый промежуточный вывод прописывается в тексте и становится якорем — модель не удерживает нить в уме, а опирается на уже зафиксированный факт при переходе к следующему шагу. Водораздел — между 512К и 1М единицами разбивки: именно здесь половина моделей рвёт цепочку.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с