3,583 papers
arXiv:2605.03042 77 4 мая 2026 г. FREE

ARIS: состязательная мультиагентная коллаборация — одна модель пишет, другая уничтожает

КЛЮЧЕВАЯ СУТЬ
Та же модель, что писала текст, не может его честно проверить. Она знает что хотела сказать — и читает написанное именно с этим знанием. Claude, проверяющий текст Claude, работает как студент, который сам себе ставит оценку: находит ровно те ошибки, которые ожидал найти, и проходит мимо остальных. Метод ARIS позволяет получить настоящую рецензию — ту, что видит только написанное, а не задуманное. Рецензент всегда из другого семейства моделей: Claude пишет черновик, ChatGPT критикует его с нуля и со свежим контекстом — слабые места, которых автор не предвидел, выходят наружу.
Адаптировать под запрос

TL;DR

Модели из одного семейства не могут качественно проверять друг друга — они разделяют одни и те же слепые пятна. ARIS строится на принципе: executor (исполнитель) из одного семейства моделей создаёт артефакт, reviewer (рецензент) из другого — его беспощадно критикует. Это не просто "попроси AI проверить текст", а системный подход: разные модели, разный контекст, чёткий критерий остановки.

Главная находка: длительная задача, выполненная одним агентом — ненадёжна по умолчанию. Модель, которая сама пишет и сама же проверяет, находит именно те ошибки, которые ожидает найти — и пропускает остальные. Claude, проверяющий текст Claude, работает как стохастический бандит: шум предсказуем. ChatGPT, проверяющий текст Claude, работает как состязательный бандит: он ищет слабости, которые автор не предвидел.

Метод — цикл "создать → покритиковать → исправить → проверить сходимость". Исполнитель делает черновик, рецензент из другого семейства выставляет балл и даёт список конкретных правок, исполнитель правит, цикл повторяется до порога качества (по умолчанию 6/10) или до лимита раундов (по умолчанию 4).


🔬

Схема метода

[ОТДЕЛЬНЫЕ ЧАТЫ / РАЗНЫЕ МОДЕЛИ]

ШАГ 1 (Модель A — исполнитель): создаёт артефакт
         → черновик / анализ / код / питч

ШАГ 2 (Модель B — рецензент, НОВЫЙ чат, свежий контекст):
         читает артефакт напрямую
         → балл по шкале 1–10 + список конкретных правок

ШАГ 3 (Модель A — исполнитель): применяет правки
         → исправленный артефакт

ШАГ 4: проверка сходимости
         → балл ≥ порога ИЛИ исчерпан лимит раундов?
            ДА → принять результат
            НЕТ → вернуться к ШАГ 2

[Ключевые правила:]
• Модели A и B — из РАЗНЫХ семейств (Claude ≠ ChatGPT)
• Рецензент читает оригинал, а не пересказ исполнителя
• Каждый раунд рецензии — новый чат (без накопленного контекста)

🚀

Пример применения

Задача: Основатель EdTech-стартапа из Москвы готовит питч для ФРИИ. Написал в Claude — хочет убедиться, что питч выдержит давление инвестора.

Промпт для рецензента (вставить в ChatGPT — новый чат):

Ты — строгий инвестор из ФРИИ. Твоя задача — найти уязвимости 
в питче, который я сейчас дам. Ты не помогаешь улучшить текст — 
ты ищешь причины отказать.

Правила оценки:
1. Выставь балл от 1 до 10 по критерию "готовность к инвестиции"
2. Перечисли ровно 5 конкретных проблем — каждая с цитатой из текста
3. Для каждой проблемы: что именно тебя останавливает как инвестора
4. Топ-1 критическая проблема, которую нужно исправить в первую очередь
5. Что должен сказать/показать основатель, чтобы ты передумал

Читай текст внимательно и формируй мнение самостоятельно — 
не соглашайся заранее ни с чем из того, что в нём написано.

Питч:
{вставить текст из Claude}

После получения критики — возвращаешься в Claude, применяешь правки, повторяешь цикл.

Результат: ChatGPT как рецензент выдаст структурированную критику с баллом, пятью конкретными возражениями и топ-приоритетом для правки. После правок в Claude снова отправляешь в ChatGPT на новый раунд. Останавливаешься, когда балл достигает твоего порога (например, 7/10) или после 3–4 раундов.


🧠

Почему это работает

Слабость LLM: модель не может объективно критиковать то, что сама создала. Она знает намерение автора, "понимает" что имелось в виду, и читает текст с той же системой предположений, с которой его писала. Это не лень — это архитектурный факт: те же веса, те же паттерны, те же слепые пятна.

Сильная сторона другой модели: ChatGPT и Claude обучались на разных данных, с разными принципами выравнивания, разными предпочтениями в формулировках. То, что Claude считает само собой разумеющимся, ChatGPT может счесть необоснованным утверждением — и наоборот. Это не баг, это ресурс.

Как метод использует разницу: свежий контекст в отдельном чате гарантирует, что рецензент не унаследует фрейминг исполнителя. Критерий сходимости (балл + лимит раундов) защищает от бесконечного цикла правок. Требование читать оригинал напрямую — а не пересказ — исключает испорченный телефон.

Рычаги управления: - Порог балла (по умолчанию 6/10) → повысь до 8 для важных документов, снизь до 5 для черновиков - Лимит раундов (по умолчанию 4) → уменьши до 2 для быстрых итераций - Роль рецензента → дай конкретную роль ("инвестор ФРИИ", "главред Т—Ж", "скептичный клиент") — острее критика - Свежий контекст → всегда новый чат для рецензии; старый чат накапливает предвзятость


📋

Шаблон промпта

📋

Промпт для рецензента (Модель B, новый чат)

Ты — {роль рецензента}. Твоя задача — найти слабые места 
в {тип артефакта}, который я сейчас дам.

Правила:
1. Оцени по шкале 1–10: насколько {критерий оценки}
2. Перечисли {число} конкретных проблем — каждая с примером из текста
3. Для каждой проблемы: что именно не работает и почему
4. Топ-1 приоритет для исправления
5. Что нужно изменить, чтобы оценка выросла на 2 балла

Читай текст самостоятельно. Не принимай утверждения из текста 
на веру — проверяй логику.

{тип артефакта}:
{вставить текст}

Что подставлять: - {роль рецензента} — "строгий редактор", "скептичный клиент", "инвестор", "конкурент" - {тип артефакта} — письмо, питч, статья, ТЗ, анализ, скрипт - {критерий оценки} — "убедительно для клиента", "готово к публикации", "логически обосновано" - {число} — 3–5 проблем, больше — размывает фокус

📋

Промпт для исполнителя после критики (Модель A, сохранить тот же чат)

Вот критика от рецензента:
{вставить критику}

Примени правки по следующим приоритетам:
1. Сначала исправь топ-1 критическую проблему
2. Затем — остальные проблемы по порядку важности
3. Не меняй то, что рецензент не критиковал

Покажи исправленный {тип артефакта}.

🚀 Быстрый старт — вставь в чат:

Вот шаблон состязательной мультиагентной проверки. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит тип артефакта, роль рецензента и критерий оценки — потому что без них невозможно настроить правило сходимости и выбрать правильную позицию для критики.


📌

Бонус: пятипроходной редакторский пайплайн

Авторы исследования описывают конкретную последовательность для доработки текста — применимо в одном чате с любой моделью:

Отредактируй текст в пять проходов по порядку:

Проход 1 — Чистка: убери слова-паразиты, лишние хеджи 
("в целом", "по сути", "можно сказать"), повторы.

Проход 2 — Активный залог: замени пассивные конструкции 
на активные где уместно.

Проход 3 — Структура предложений: улучши порядок слов 
для ясности — тема в начале, новое в конце.

Проход 4 — Терминология: найди все ключевые термины 
и убедись, что они используются одинаково по всему тексту.

Проход 5 — Числовая согласованность: проверь, 
что все цифры и факты совпадают между собой.

После каждого прохода — покажи краткий список изменений.

Текст:
{текст}

⚠️

Ограничения

⚠️ Две подписки: Полная ценность метода раскрывается только при использовании моделей из разных семейств — нужны одновременно Claude и ChatGPT (или другая пара).

⚠️ Ручная работа между раундами: Переносить критику от одной модели к другой, копировать контекст, отслеживать раунды — всё вручную. В исследовании это автоматизировано через код, у вас — через руки.

⚠️ Не для коротких задач: Один быстрый вопрос не требует цикла рецензии. Метод окупается на больших артефактах — длинные тексты, сложные анализы, питчи, ТЗ.

⚠️ Рецензент может ошибаться: Другая модель — не истина в последней инстанции. Если ChatGPT даёт глупую критику, не обязан её принимать. Ты — финальный судья.


🔗

Ресурсы

ARIS: Autonomous Research via Adversarial Multi-Agent Collaboration — технический отчёт, апрель 2026.

Авторы: Ruofeng Yang, Yongcan Li, Shuai Li — Shanghai Jiao Tong University, Shanghai Innovation Institute.

Репозиторий: github.com/wanshuiyin/Auto-claude-code-research-in-sleep

Ключевые источники из работы: - Du et al., 2024 — разнообразие критики в мультиагентных дебатах - Liang et al., 2024a — гетерогенные мультиагентные конфигурации - Madaan et al., 2023 — саморефлексия единственной модели (Self-Refine)


📋 Дайджест исследования

Ключевая суть

Та же модель, что писала текст, не может его честно проверить. Она знает что хотела сказать — и читает написанное именно с этим знанием. Claude, проверяющий текст Claude, работает как студент, который сам себе ставит оценку: находит ровно те ошибки, которые ожидал найти, и проходит мимо остальных. Метод ARIS позволяет получить настоящую рецензию — ту, что видит только написанное, а не задуманное. Рецензент всегда из другого семейства моделей: Claude пишет черновик, ChatGPT критикует его с нуля и со свежим контекстом — слабые места, которых автор не предвидел, выходят наружу.

Принцип работы

Claude и ChatGPT обучались на разных данных, с разными принципами. То, что Claude считает само собой разумеющимся — ChatGPT может счесть необоснованным утверждением. Это не баг, это ресурс. Каждый раунд рецензии — новый чат: рецензент не наследует фрейминг исполнителя и не знает что ты имел в виду. Цикл: исполнитель создаёт артефакт → рецензент из другого семейства выставляет балл 1–10 и даёт список конкретных правок → исполнитель применяет правки → проверяем балл. Останавливаемся когда балл достиг порога (по умолчанию 6/10) или прошли 4 раунда.

Почему работает

Модель не способна объективно критиковать то, что сама создала — это не лень и не сбой, а архитектурный факт. Те же веса, те же паттерны распознавания, те же слепые пятна. Другая модель не знает что ты хотел сказать — она видит только то, что написано. Это и есть настоящая рецензия. Свежий чат для каждого раунда исключает ещё один источник предвзятости: рецензент не унаследует фрейминг из предыдущего разговора и не будет «соглашаться» с уже принятыми решениями.

Когда применять

Длинные важные артефакты — питчи для инвесторов, технические задания, статьи, деловые письма, скрипты переговоров — особенно когда малейшая слабость стоит дорого: отказ инвестора, потерянный клиент, непринятый материал. Чем выше ставки, тем острее нужен взгляд со стороны. НЕ подходит для коротких задач и быстрых вопросов — ручная передача контекста между моделями создаёт реальное трение, и на простых запросах оно не окупается.

Мини-рецепт

1. Напиши черновик в Модели A (например, Claude): питч, статья, ТЗ, письмо — любой артефакт который важен.
2. Открой Модель B (например, ChatGPT) — обязательно новый чат: вставь промпт рецензента с конкретной ролью. Роль не декоративная — она задаёт угол атаки: «строгий инвестор из ФРИИ», «главред Т—Ж», «скептичный клиент который ищет повод отказать».
3. Шаблон промпта для рецензента:
Ты — {роль}. Твоя задача — найти слабые места в {тип артефакта}. Правила: 1. Оцени по шкале 1–10: насколько {критерий — «убедительно для инвестора», «готово к публикации»}. 2. Перечисли 5 конкретных проблем — каждую с цитатой из текста. 3. Для каждой: что именно не работает. 4. Топ-1 приоритет для исправления. 5. Что нужно изменить, чтобы оценка выросла на 2 балла. Читай самостоятельно — не принимай утверждения из текста на веру. {текст}
4. Вернись в тот же чат с Моделью A: применяй правки по порядку — сначала топ-1 критическую проблему, затем остальные. Не трогай то, что рецензент не критиковал.
5. Повтори цикл: снова новый чат в Модели B, свежий взгляд. Останавливайся когда балл достиг твоего порога или прошли 3–4 раунда.

Примеры

[ПЛОХО] : Проверь мой питч, всё ли хорошо? — в том же Claude, где писал питч. Модель знает что ты имел в виду и «понимает» размытые формулировки так как ты задумывал.
[ХОРОШО] : (открываешь новый чат в ChatGPT) Ты — строгий инвестор из ФРИИ. Ищи причины отказать, а не как улучшить текст. Правила: 1. Оцени готовность к инвестиции по шкале 1–10. 2. Дай 5 конкретных проблем с цитатами из текста. 3. Топ-1 критическая и что нужно показать чтобы ты передумал. Питч: {текст из Claude} — ChatGPT не знал что ты хотел сказать и ударит именно туда, где текст не держит удар.
Источник: ARIS: Autonomous Research via Adversarial Multi-Agent Collaboration
ArXiv ID: 2605.03042 | Сгенерировано: 2026-05-06 05:32

Проблемы LLM

ПроблемаСутьКак обойти
Модель плохо критикует то, что сама написалаПросишь модель проверить её же текст. Она знает намерение автора. Читает с теми же предположениями, с которыми писала. Находит именно те ошибки, которые ожидает. Остальные пропускает. Это не невнимательность — это следствие одних и тех же весов: что написало, то и проверяетОтдай рецензию модели из другого семейства. Claude пишет — ChatGPT критикует. Каждый раунд критики — новый чат, без накопленного контекста

Методы

МетодСуть
Цикл кросс-семейственной рецензии — глубокая правка без самообманаРаботает в четыре шага. 1. Модель A (например, Claude) создаёт артефакт. 2. Открываешь новый чат в Модели B (например, ChatGPT) — вставляешь артефакт напрямую. Промпт рецензенту: «Ты — {роль: строгий редактор / скептичный инвестор / конкурент}. Оцени по шкале 1–10 насколько {критерий}. Перечисли {3–5} конкретных проблем с цитатой из текста. Назови топ-1 приоритет. Что нужно изменить, чтобы оценка выросла на 2 балла. Не принимай утверждения из текста на веру.» 3. Возвращаешься в тот же чат к Модели A, вставляешь критику, просишь применить правки по приоритетам. 4. Проверяешь балл. Если выше порога (твой выбор: 6–8 из 10) или прошло 3–4 раунда — останавливаешься. Иначе — новый раунд рецензии в свежем чате. Почему работает: разные семейства обучались на разных данных. Что Claude считает само собой разумеющимся, ChatGPT замечает как необоснованное утверждение. Свежий чат гарантирует: рецензент не унаследовал фрейминг автора. Когда применять: длинные и важные артефакты — питч, статья, ТЗ, договор. Не работает для: коротких одноразовых вопросов — цикл не окупится
Пятипроходная правка текста — один фокус за разПопроси модель отредактировать текст в пять последовательных проходов: «Проход 1 — чистка: убери слова-паразиты и повторы. Проход 2 — активный залог: замени пассивные конструкции. Проход 3 — порядок слов: тема в начале, новое в конце. Проход 4 — терминология: все ключевые слова используются одинаково. Проход 5 — числа и факты: все цифры совпадают между собой. После каждого прохода — краткий список изменений.» Почему работает: за один проход модель держит всё одновременно и теряет фокус. Пять узких задач последовательно — каждая выполняется полностью. Ошибки пятого прохода не мешают первому. Применяй в одном чате с любой моделью, без второй подписки
📖 Простыми словами

ARIS:AutonomousResearch via Adversarial Multi-AgentCollaboration

arXiv: 2605.03042

Суть ARIS в том, что нейросети из одного семейства — это как близнецы с одинаковыми дефектами зрения: они в упор не видят косяков друг друга. Если ты просишь Claude проверить текст, написанный Claude, она будет кивать и поддакивать, потому что у них общие слепые пятна и логические паттерны. Чтобы получить реальный результат, нужна состязательная среда, где одна модель (исполнитель) пашет, а другая (рецензент) из совершенно другой «песочницы» пытается её разнести. Это не просто проверка, а системная грызня разных архитектур, которая вытаскивает на свет скрытую лажу.

Это как если бы ты попросил своего лучшего друга проверить твой бизнес-план: он тебя любит, понимает с полуслова и подсознательно достраивает в голове то, что ты забыл написать на бумаге. Формально он проверил, но по факту вы оба в одной лодке. ARIS — это когда ты отдаёшь тот же план злому конкуренту, который спит и видит, как бы тебя прищучить. Конкурент не знает твоих благих намерений, он видит только голые факты и бьёт по самым слабым местам, потому что у него другая прошивка и нет твоих предубеждений.

Технически это работает через мультиагентную коллаборацию, где ключевое правило — зоопарк моделей. Ты берешь, например, GPT-4 как executor, а на роль reviewer ставишь Claude 3.5 или Llama 3. Разные веса, разные обучающие выборки и жесткий критерий остановки создают фильтр, через который проходит только реально качественный контент. Модель-рецензент беспощадно критикует артефакт, заставляя исполнителя переделывать работу до тех пор, пока аргументы для критики не закончатся. Это превращает процесс из ленивого «посмотри, норм?» в полноценный автономный цикл исследования.

Хотя метод тестировали на научных задачах, принцип разнородной критики применим везде: от написания кода до подготовки питч-деков для инвесторов. Если ты готовишь презентацию в одной нейронке, обязательно прогони её через её прямого конкурента с промптом «найди здесь 10 причин мне отказать». Это универсальный способ убить галлюцинации и вылизать логику. SEO для роботов, ARIS для качества — если хочешь, чтобы твой контент выдержал проверку реальностью, он должен сначала выжить в драке двух разных AI.

Короче, хватит верить одной модели на слово — она слишком влюблена в свои собственные ошибки. ARIS доказывает: объективность рождается только в конфликте разных систем. Либо ты натравливаешь модели друг на друга в закрытом чате, либо твои ошибки найдет рынок, и это будет гораздо больнее. Разные семейства, жесткая критика, итерации до победного — только так можно получить результат, за который не стыдно.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с