Itinai.com high tech business environment multiple monitors d 512a6664 ad59 4de2 8833 f39e2501c27c 1

ReasonFlux-PRM: Модель оценки траекторий для улучшения логического мышления в LLM

Itinai.com high tech business environment multiple monitors d 512a6664 ad59 4de2 8833 f39e2501c27c 1

Понимание роли цепочки размышлений в LLM

Современные большие языковые модели (LLM) все чаще используются для решения сложных задач, таких как математика и научное рассуждение, благодаря структурированным подходам цепочки размышлений. Эти модели не просто выдают ответы; они проходят через промежуточные шаги, имитируя логические процессы мышления. Такой подход повышает точность рассуждений и облегчает отслеживание ошибок. С развитием моделей становится критически важно оценивать не только конечные ответы, но и шаги рассуждений, которые к ним приводят.

Ограничения традиционных PRM в оценке рассуждений

Серьезной проблемой является то, что большинство современных моделей вознаграждения (PRM) оценивают только конечные ответы, игнорируя процессы рассуждений, стоящие за этими выводами. Однако такие продвинутые модели, как Deepseek-R1, теперь генерируют обширные пути рассуждений, прежде чем прийти к окончательным ответам. Эти пары «траектория-ответ» используются для обучения меньших моделей. Проблема в том, что существующие PRM не предназначены для оценки этих полных траекторий, что приводит к ненадежному контролю, который может ухудшить производительность меньших моделей, обученных на данных траектория-ответ.

Проблемы с обработкой неорганизованных цепочек рассуждений

Традиционные PRM в основном откалиброваны для структурированных, чистых выводов, а не для длинных и иногда неорганизованных цепочек рассуждений, производимых продвинутыми LLM. Даже такие сложные PRM, как Qwen2.5-Math-PRM-72B, имеют ограниченные возможности различать высококачественные и низкокачественные промежуточные рассуждения. При применении к выходным данным траектория-ответ от моделей, таких как Gemini или Deepseek-R1, эти PRM часто выдают пересекающиеся оценки вознаграждения, что указывает на слабую дискриминацию. Эта ограниченная чувствительность приводит к плохому выбору данных для последующей дообучения, а эксперименты подтверждают, что модели, обученные на данных, выбранных PRM, показывают худшие результаты, чем те, которые обучены на данных, отобранных людьми.

Введение ReasonFlux-PRM для уровня траектории

Исследователи из Университета Иллинойс в Урбана-Шампейн, Принстонского университета, Корнеллского университета и ByteDance Seed представили ReasonFlux-PRM как модель, учитывающую траекторию, которая оценивает как промежуточные шаги рассуждений, так и конечные ответы. Она интегрирует оценку на уровне шагов и на уровне траектории, позволяя более тонко понимать качество рассуждений. ReasonFlux-PRM обучена на наборе данных из 10 000 образцов тщательно подобранных математических и научных задач, созданных для отражения реальных форматов траектория-ответ.

Техническая структура ReasonFlux-PRM

ReasonFlux-PRM работает, оценивая каждый промежуточный шаг в траектории на основе его вклада в конечный ответ. Она использует референсную функцию вознаграждения, которая учитывает запрос, предыдущие шаги рассуждений и окончательный вывод для назначения оценок на уровне шагов. Эти оценки затем агрегируются для получения общего вознаграждения за траекторию. Модель поддерживает множество приложений, включая оффлайн-фильтрацию высококачественных учебных данных, плотное вознаграждение во время обучения с подкреплением с использованием оптимизации политики на основе GRPO и выбор ответа Best-of-N во время тестирования для повышения качества вывода. Эти возможности делают ReasonFlux-PRM более гибкой и комплексной, чем предыдущие PRM.

Эмпирические результаты на бенчмарках рассуждений

В ходе оценок производительности по задачам, таким как AIME, MATH500 и GPQA-Diamond, ReasonFlux-PRM-7B превзошла Qwen2.5-Math-PRM-72B и данные, отобранные людьми, по нескольким ключевым метрикам. В частности, она достигла прироста точности на 12,1% в контролируемом дообучении, улучшения на 4,5% во время обучения с подкреплением и увеличения на 6,3% во время масштабирования на этапе тестирования. Эти достижения особенно значительны, учитывая, что ReasonFlux-PRM меньше по размеру модели. Модель Qwen2.5-14B-Instruct, обученная на данных, отобранных ReasonFlux-PRM, достигла уровней производительности, близких к или превышающим базовые уровни, отобранные людьми. В то же время другие PRM привели к значительным падениям до 26,6% в определенных бенчмарках.

Влияние и будущее ReasonFlux-PRM

Это исследование устраняет важное ограничение в обучении и оценке современных моделей рассуждений. Позволяя контролировать как траектории мышления, так и конечные ответы, ReasonFlux-PRM повышает качество учебных данных и надежность ответов модели. Оно задает новое направление для систематической оценки и улучшения процессов рассуждений в крупных моделях.

Часто задаваемые вопросы (FAQ)

1. Что такое ReasonFlux-PRM?

ReasonFlux-PRM — это модель, учитывающая траекторию, которая оценивает как промежуточные шаги рассуждений, так и конечные ответы, обеспечивая более глубокое понимание качества рассуждений.

2. Как ReasonFlux-PRM улучшает качество ответов?

Модель интегрирует оценку на уровне шагов и на уровне траектории, что позволяет более точно оценивать вклад каждого шага в конечный ответ.

3. В каких областях может быть применена ReasonFlux-PRM?

ReasonFlux-PRM может быть использована в обучении с подкреплением, фильтрации учебных данных и улучшении качества вывода в различных приложениях.

4. Каковы преимущества использования ReasonFlux-PRM?

Модель демонстрирует значительные улучшения в точности и надежности по сравнению с традиционными PRM, что делает ее более эффективной для обучения и оценки.

5. Каковы лучшие практики при использовании ReasonFlux-PRM?

Рекомендуется тщательно отбирать данные для обучения, использовать многоуровневую оценку и регулярно обновлять модель для достижения оптимальных результатов.

6. Какие ошибки следует избегать при работе с ReasonFlux-PRM?

Избегайте игнорирования промежуточных шагов рассуждений и не полагайтесь только на конечные ответы для оценки качества модели.

Запустите свой ИИ проект бесплатно

ИИ-агенты искусственный интеллект онлайн для бизнеса

Лучший ИИ онлайн