3,583 papers
arXiv:2605.04816 78 6 мая 2026 г. FREE

AI Learning Companion: как перенастроить ChatGPT с режима «дай ответ» на режим «научи думать»

КЛЮЧЕВАЯ СУТЬ
ChatGPT работает против твоего обучения. Не потому что плохой — просто оптимизирован под другое: дать точный ответ быстро, снять сопротивление, убрать трение. Именно это делает его плохим учителем — он выполняет работу за тебя, а не заставляет думать самого. Метод позволяет одним промптом переключить AI с режима «дай готовое» на режим «заставь сформулировать». Фишка: когда AI задаёт вопросы вместо объяснений, мозг делает ту работу, которую обычно делает за него AI — и это создаёт долгосрочную память вместо иллюзии понимания.
Адаптировать под запрос

TL;DR

Это исследование — не техника, а фундаментальный инсайт о том, почему ChatGPT вредит вашему обучению по умолчанию. LLM оптимизированы под результат: дать точный ответ быстро, убрать сопротивление, снизить нагрузку. Именно это делает их плохими учителями — они делают работу за вас, а не заставляют вас думать самостоятельно. Авторы называют это ловушкой performance vs learning: задание выполнено на отлично, но через неделю в голове пусто.

Парадокс производительности: в реальном эксперименте старшеклассники с AI-помощником решали задачи лучше во время обучения, но хуже сдавали проверку без AI через несколько недель. Это называется когнитивной выгрузкой — когда AI берёт на себя анализ, планирование и оценку, мозг перестаёт тренировать именно те механизмы, которые нужны для настоящего понимания. Короче: чем удобнее AI отвечает, тем меньше вы учитесь.

Решение — явно перенастроить AI на обучающий режим. Четыре принципа: задавай вопросы вместо объяснений; держи уровень сложности в «зоне дискомфорта»; выявляй разрыв между тем, что ты думаешь, что знаешь, и тем, что знаешь реально; привязывай знания к конкретным ситуациям из твоей практики. Каждый принцип переводится в конкретные инструкции в промпте.


🔬

Схема метода

Один промпт в начале сессии — переключает всю беседу в обучающий режим.

РЕЖИМ: AI как учитель, не как энциклопедия

ШАГ 1 (Глубокое обучение): 
  Не объясняй → спрашивай
  Формат: вопрос, проверяющий понимание, не ответ

ШАГ 2 (Скаффолдинг):
  Не давай ответ сразу → дай подсказку уровня n+1
  Если застрял → ещё одна подсказка, не ответ

ШАГ 3 (Метакогниция):
  Периодически спрашивай уверенность → потом проверяй реальное знание
  Если расхождение → указывай на слепые пятна

ШАГ 4 (Контекст):
  Примеры только из моей области → привязка к реальным ситуациям

ВЫХОД из режима: только когда попрошу "объясни напрямую"

Всё выполняется в одном диалоге. Переключение одноразовое — действует на всю сессию.


🚀

Пример применения

Задача: Артём хочет разобраться в unit-экономике для своего небольшого e-commerce бизнеса на Wildberries. Он раньше просто спрашивал ChatGPT «объясни LTV и CAC» — получал лекцию, кивал, через три дня забывал.

Промпт:

Я хочу по-настоящему разобраться в unit-экономике для Wildberries, 
а не просто получить объяснения. 

Работай как строгий, но поддерживающий ментор:

— Не объясняй концепции сразу. Сначала спроси, что я уже понимаю.
— Задавай вопросы, которые заставляют меня думать и формулировать 
  самого, а не получать готовое.
— Если я застрял — дай наводящую подсказку, не ответ. 
  Если совсем застрял — ещё одну. Прямой ответ только если 
  я попрошу явно.
— Периодически спрашивай: "Насколько уверен(а) на 1-10?" — 
  потом проверяй реальное понимание коротким вопросом.
  Показывай расхождение честно, без похвалы.
— Все примеры — про Wildberries, реальные товарные категории, рубли.
— Роль можешь менять: иногда ты эксперт-ментор, 
  иногда — «другой предприниматель», с которым я обсуждаю.

Начни с того, что спросишь меня: как я сейчас понимаю 
разницу между LTV и CAC, и зачем они нужны.

Результат: Вместо лекции AI начнёт с вопроса о текущем понимании. Дальше — диалог: Артём формулирует, AI указывает на пробелы, даёт подсказки уровнем выше. В какой-то момент AI спросит «уверенность 1-10?» — Артём ответит «7», AI задаст проверочный вопрос и покажет, где реально 4. Это укол, но полезный. Через 20 минут такого диалога понимание будет прочнее, чем после 5 прочитанных статей.


🧠

Почему это работает

LLM по умолчанию оптимизированы под удовлетворение запроса: дать полный, точный, удобный ответ. Это выглядит как помощь — но именно это мешает обучению. Мозг запоминает то, что сам достал, а не то, что получил готовым. Это называется эффектом генерации: знание, которое ты сформулировал сам, хранится в долгосрочной памяти гораздо прочнее.

Второй механизм — тестовый эффект: воспроизведение информации из памяти укрепляет её сильнее, чем повторное чтение. Поэтому «AI спрашивает тебя» работает лучше, чем «AI объясняет тебе». Когда ты отвечаешь на вопрос — ты тренируешь память. Когда читаешь объяснение — только иллюзия понимания.

Рычаги управления промптом: - Строгость подсказок — чем меньше подсказок разрешаешь, тем сложнее и глубже обучение. Для тяжёлых тем — разреши две подсказки. Для лёгкого повторения — одну. - Частота метакогнитивных проверок — «проверяй каждые 3 ответа» vs «раз в конце». Чаще = точнее картина слепых пятен. - Смена ролей AI — «побудь новичком, которому я объясняю» запускает эффект протеже: объяснение другому — один из лучших способов выявить дыры в своём понимании. - Явный выход из режима — фраза «объясни напрямую» — это аварийный выход. Используй его осознанно, не автоматически.


📋

Шаблон промпта

Я хочу по-настоящему разобраться в {тема}, а не просто получить объяснение.

Работай как строгий, но поддерживающий ментор:

— Не объясняй сразу. Сначала спроси, что я уже понимаю по этой теме.
— Задавай вопросы, которые заставляют меня думать и формулировать самого. 
  Не давай готовых ответов без запроса.
— Если я застрял — одна наводящая подсказка. Ещё застрял — ещё одна. 
  Прямой ответ только если скажу "объясни напрямую".
— Каждые {N} ответов спрашивай: "Оцени уверенность 1-10" — 
  потом задавай проверочный вопрос. Показывай разрыв честно.
— Все примеры — из области {моя сфера/контекст}.
— Иногда меняй роль: ментор → коллега → новичок, которому я объясняю.

Начни с вопроса: как я сейчас понимаю {ключевой концепт темы}?

Что подставлять: - {тема} — конкретно: «финансовый анализ», «SEO», «переговоры с поставщиками» - {N} — через сколько ответов проверять уверенность: 3-5 для плотного обучения, 8-10 для лёгкого - {моя сфера/контекст} — «московский рынок аренды», «B2B SaaS», «маркетплейсы» - {ключевой концепт темы} — главное понятие, с которого начнёте: «что такое маржинальность», «как работает конверсия»


🚀 Быстрый старт — вставь в чат:

Помоги мне адаптировать этот шаблон под мою задачу: {твоя задача — 
что хочешь выучить}. Спроси уточняющие вопросы и заполни поля.

[вставить шаблон выше]

LLM спросит что изучаешь, какой уровень знаний сейчас и в каком контексте применять — потому что без этого не сможет откалибровать сложность подсказок и выбрать правильные примеры. Она возьмёт структуру из шаблона и адаптирует под твою тему.


⚠️

Ограничения

⚠️ Не для срочных задач: Если нужно быстро получить ответ для работы прямо сейчас — этот режим не нужен. Он для ситуаций, где цель — долгосрочное понимание, а не скорость.

⚠️ Не работает без вашей активности: Если не отвечать развёрнуто, а писать «да/нет» — обучающий режим ломается. Метод требует включённости.

⚠️ AI не видит вас по-настоящему: Реальные педагогические системы строят модель конкретного ученика со временем. ChatGPT/Claude без памяти сбрасывает всё в каждой новой сессии. Приходится напоминать свой уровень и контекст вручную.

⚠️ Промпт не заменяет структуру курса: Метод помогает глубже усвоить тему, но не выстраивает оптимальную последовательность обучения. Нужно самому определить, что изучать и в каком порядке.


🔗

Ресурсы

Название работы: Building AI Companions that Prioritise Learning over Performance

Авторы: Hassan Khosravi, Dragan Gašević, Lixiang Yan, Jason M. Lodge, Shazia Sadiq, Jason M. Tangen, Paul Denny, Kristen DiCerbo, Simon Buckingham Shum, Ryan S. Baker

Университеты: University of Queensland, Monash University, Tsinghua University, University of Auckland, Khan Academy, University of Technology Sydney, Adelaide University

Ключевые концепции из исследования: Higher Education Learning Framework (HELF), learning-performance paradox, cognitive offloading, desirable difficulties, generation effect, testing effect, Zone of Proximal Development, metacognitive calibration


📋 Дайджест исследования

Ключевая суть

ChatGPT работает против твоего обучения. Не потому что плохой — просто оптимизирован под другое: дать точный ответ быстро, снять сопротивление, убрать трение. Именно это делает его плохим учителем — он выполняет работу за тебя, а не заставляет думать самого. Метод позволяет одним промптом переключить AI с режима «дай готовое» на режим «заставь сформулировать». Фишка: когда AI задаёт вопросы вместо объяснений, мозг делает ту работу, которую обычно делает за него AI — и это создаёт долгосрочную память вместо иллюзии понимания.

Принцип работы

Два механизма, которые AI обходит стороной по умолчанию. Эффект генерации: знание, которое ты сформулировал сам, идёт прямо в долгосрочную память. Знание, которое получил готовым — нет. Эффект тестирования: когда ты вспоминаешь что-то из памяти, ты её укрепляешь. Когда читаешь объяснение — создаёшь ощущение что знаешь, а не само знание. AI по умолчанию лишает тебя обоих: сам генерирует за тебя и ничего не требует вспоминать обратно. Промпт разворачивает оба механизма в твою сторону.

Почему работает

В реальном эксперименте студенты с AI справлялись лучше во время занятий — но хуже сдавали проверку без AI через несколько недель. Мозг отдал анализ и планирование AI и перестал тренировать именно то, что нужно для настоящего понимания. Когнитивная выгрузка работает как мышца: чем меньше мозг напрягается — тем меньше растёт. Чем удобнее AI отвечает, тем меньше остаётся в голове.

Когда применять

Изучение нового с нуля — для сложных тем (финансы, программирование, право, медицина), особенно когда нужно не просто понять сейчас, но и применять без шпаргалки потом. Подготовка к экзаменам, собеседованиям, переговорам — все ситуации, где AI не будет рядом. Освоение профессиональных навыков — когда цель долгосрочная, а не «сдать задачу сегодня». НЕ подходит для срочных запросов, где нужен быстрый точный ответ прямо сейчас — тогда обычный режим лучше.

Мини-рецепт

1. Назови тему и уровень: скажи что изучаешь и что уже знаешь — без этого AI не поймёт где ставить подсказки, будет слишком легко или слишком жёстко.
2. Включи режим вопросов: попроси AI начать с того, что ты уже понимаешь по теме — не объяснять, а спрашивать.
3. Настрой систему подсказок: скажи сколько наводок давать до прямого ответа — 2-3 для тяжёлых тем, 1 для повторения. Прямой ответ — только по явному запросу.
4. Добавь проверку уверенности: попроси каждые 3-5 ответов спрашивать оценку уверенности от 1 до 10 — и сразу проверять реальным вопросом. Расхождение между «думаю что знаю» и «знаю на самом деле» — это и есть карта твоих слепых пятен.
5. Привяжи к своему контексту: укажи профессиональную сферу или конкретные ситуации — абстрактные примеры закрепляются хуже.
6. Договорись об аварийном выходе: задай фразу-сигнал («объясни напрямую») — для случаев когда реально застрял и нужно идти дальше. Используй осознанно, не автоматически.

Примеры

[ПЛОХО] : Объясни мне что такое маржинальность и как её считать
[ХОРОШО] : Я хочу разобраться в маржинальности для своего бизнеса на маркетплейсах — по-настоящему, а не получить лекцию. Работай как строгий ментор: начни с вопроса, как я сейчас понимаю разницу между выручкой и прибылью. Не объясняй сам — задавай вопросы, которые заставляют меня думать. Если застряну — одна наводящая подсказка, потом ещё одна. Только если скажу «объясни напрямую» — давай прямой ответ. Каждые 3 ответа спрашивай уверенность от 1 до 10 и сразу проверяй реальным вопросом. Показывай расхождение честно. Все примеры — про маркетплейсы, реальные товарные категории, рубли.
Источник: Building AI Companions that Prioritise Learning over Performance
ArXiv ID: 2605.04816 | Сгенерировано: 2026-05-07 05:39

Проблемы LLM

ПроблемаСутьКак обойти
Модель дает готовые ответы — мозг перестает работатьПросишь объяснить тему. Получаешь понятное, полное, удобное объяснение. Кажется — разобрался. Через неделю пусто. Это не случайность: модель оптимизирована под «закрыть запрос», а не под «научить». В итоге анализ, формулировки и выводы делает AI. Мозг бездействует. Именно бездействующие механизмы и нужны для настоящего пониманияПереключи модель явно: «Не объясняй сразу. Задавай вопросы. Прямой ответ — только если напишу "объясни напрямую"». Один абзац в начале сессии меняет всю беседу

Методы

МетодСуть
Режим ментора — вопросы вместо объясненийДобавь в начало сессии: Работай как строгий ментор. Не объясняй концепции сразу — спрашивай что я уже понимаю. Если застрял — одна подсказка уровнем выше. Ещё застрял — ещё одна. Прямой ответ только если скажу "объясни напрямую". Почему работает: знание, которое сам сформулировал, хранится в памяти прочнее полученного готовым. Модель не объясняет — она вытаскивает твои мысли наружу. Когда да: учишь тему с нуля или углубляешься. Когда нет: нужен быстрый ответ для работы прямо сейчас
Проверка уверенности — выявление слепых пятенДобавь в промпт: Каждые {N} моих ответов спрашивай "Оцени уверенность 1-10". Потом задай один проверочный вопрос. Покажи разрыв между моей оценкой и реальным знанием честно, без похвалы. Почему работает: люди переоценивают своё понимание. Слышишь термин — кажется знакомым. Но сформулировать не можешь. Проверочный вопрос сразу после самооценки показывает реальный разрыв. Настройка: {N} = 3-5 для плотного обучения, 8-10 для лёгкого повторения
Роль новичка — объясни другому, найди дырыПопроси модель: Побудь новичком в этой теме. Я буду объяснять тебе. Задавай наивные вопросы там, где моё объяснение размыто или неполно. Почему работает: когда объясняешь другому — сразу видно где сам не понимаешь. Пробел в объяснении = пробел в знании. Модель в роли новичка создаёт это давление искусственно. Можно применять в любой момент диалога, не только с начала

Тезисы

ТезисКомментарий
Сам сформулировал = запомнил прочнееЗнание, которое ты достал из головы сам — хранится в долгосрочной памяти дольше, чем то, что получил готовым. Это не метафора: механизм называется эффектом генерации. Мозг кодирует информацию глубже, когда сам её производит, а не потребляет. Применяй: вместо «объясни X» пиши «спроси меня про X и дай подсказку если застряну»
📖 Простыми словами

BuildingAICompanions that Prioritise Learning over Performance

arXiv: 2605.04816

Проблема современных нейросетей в том, что они слишком стараются тебе угодить. По умолчанию любая LLM заточена на performance — быстрый, точный и максимально разжеванный ответ, который экономит твои калории. Но вот парадокс: чем меньше ты напрягаешься, тем меньше нейронных связей строится в твоей голове. Мозг — ленивая скотина, и если ChatGPT выдает готовую лекцию, он просто ставит галочку «информация получена» и тут же ее стирает. Чтобы реально чему-то научиться, тебе нужно когнитивное сопротивление, а не услужливый бот-официант.

Это как прийти в спортзал и смотреть, как тренер за тебя поднимает штангу. Формально упражнение выполнено, веса подняты, техника идеальна, но твои бицепсы от этого не вырастут. Нейросеть сейчас работает именно так: она «качается» за тебя, выдавая идеальный результат, пока ты просто наблюдаешь со стороны. Исследование доказывает, что такая помощь — это медвежья услуга, которая создает иллюзию компетентности, оставляя в голове пустоту через неделю.

Чтобы это исправить, нужно использовать эффект генерации. Суть проста: знание впечатывается в память только тогда, когда ты сам его сформулировал или «добыл» в бою. Вместо того чтобы просить «объясни мне unit-экономику», нужно заставить модель работать в режиме обучающего наставника. Она не должна давать ответы — она должна задавать наводящие вопросы, подталкивать к выводам и заставлять тебя самого связывать факты. Только когда ты сам проговоришь, как LTV соотносится с CAC, информация перейдет из оперативной памяти в долгосрочную.

Этот принцип универсален и применим к любому обучению, будь то программирование, менеджмент или изучение языков. Тестировали это на простых диалогах, но механика работает везде: SEO для мозга не существует, нельзя просто «проиндексировать» знания без усилий. Если ты хочешь не просто закрыть задачу, а реально поумнеть, тебе нужно намеренно ломать удобство интерфейса и вводить контролируемую сложность.

Короче: ChatGPT в базе — это костыль, который отупляет, если использовать его как энциклопедию. Чтобы превратить его в мощный тренажер, нужно переключить модель из режима «сделай за меня» в режим «заставь меня подумать». 6 элементов промпта меняют правила игры: ты перестаешь потреблять контент и начинаешь его генерировать. Либо ты напрягаешь извилины сейчас, либо завтра обнаружишь, что без чата не можешь связать и двух слов.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с