Itinai.com it company office background blured chaos 50 v 32924e8d 918f 458e ae6f 0f5d897c5b7b 1

Прорыв в автоматизации разработки ПО: как Nebius AI использует обучение с подкреплением для открытых LLM

Itinai.com it company office background blured chaos 50 v 32924e8d 918f 458e ae6f 0f5d897c5b7b 1

Введение в мир автоматизации разработки с Nebius AI

Современный ландшафт автоматизации разработки программного обеспечения (ПО) стремительно меняется благодаря достижениям в области больших языковых моделей (LLMs). Однако большинство подходов к обучению способных агентов опираются на закрытые модели или дорогостоящие методы обучения с учителем. В этом контексте Nebius AI предлагает революционное решение, которое открывает новые горизонты для использования открытых весовых LLM через обучение с подкреплением.

Преимущества подхода Nebius AI

Исследовательская команда Nebius AI и Humanoid разработала фреймворк обучения с подкреплением для подготовки многоходовых агентов в области разработки ПО. Этот подход позволяет преодолевать ограничения, связанные с одноступенчатыми задачами, и открывает новые возможности для реальных сценариев использования.

Проблемы, с которыми сталкиваются разработчики ПО

  • Долгосрочное рассуждение: Агенты должны сохранять логическую последовательность на протяжении множества шагов, что требует контекстных окон, превышающих 100 000 токенов.
  • Обратная связь из состояния среды: Действия агентов приводят к значимым наблюдениям, которые направляют последующие решения.
  • Разреженные/задержанные награды: Сигналы успеха часто появляются только в конце сложных взаимодействий, что усложняет процесс присвоения заслуг.
  • Сложность оценки: Измерение прогресса требует полного развертывания траекторий и может быть шумным из-за нестабильности тестов.

Технические аспекты: модифицированный DAPO и дизайн агентов

Команда исследователей продемонстрировала двухступенчатую обучающую систему для подготовки агента Qwen2.5-72B-Instruct. В процессе обучения используются:

  1. Отказное тонкое обучение (RFT): Агент проходит через 7 249 тщательно отобранных задач, что позволяет повысить базовую точность с 11% до 20%.
  2. Обучение с подкреплением с использованием модифицированного DAPO: Включает асимметричное обрезание, динамическую фильтрацию образцов и штрафы за длину эпизодов.

Масштабирование к длинным контекстам и реальным бенчмаркам

Изначально агент обучается с контекстной длиной 65 000 токенов, что уже вдвое больше, чем у большинства открытых моделей. После второго этапа обучения с подкреплением контекст увеличивается до 131 000 токенов, что позволяет агенту справляться с реальными задачами отладки и патчинга.

Результаты: преодоление разрыва с базовыми моделями

Итоговый агент, обученный с использованием RL, достигает 39% точности Pass@1 на верифицированном бенчмарке SWE-bench, что вдвое превышает базу отказного тонкого обучения. Это подтверждает эффективность метода и его способность к автономному обучению без надзора.

Часто задаваемые вопросы (FAQ)

1. Как работает обучение с подкреплением в контексте разработки ПО?

Обучение с подкреплением позволяет агентам учиться на основе взаимодействия с окружением, получая награды за успешные действия.

2. Какие преимущества открытых весовых LLM по сравнению с закрытыми моделями?

Открытые модели обеспечивают большую гибкость и доступность, позволяя разработчикам настраивать и адаптировать их под свои нужды.

3. Каковы основные вызовы при использовании RL для разработки ПО?

К основным вызовам относятся необходимость долгосрочного рассуждения, сложность получения обратной связи и разреженные награды.

4. Как Nebius AI решает проблему разреженных наград?

Используя модифицированный DAPO, команда фокусируется на оптимизации траекторий с реальными сигналами обучения, что улучшает процесс обучения.

5. Каковы лучшие практики при использовании LLM для разработки ПО?

Рекомендуется тщательно отбирать задачи для обучения, использовать динамическую фильтрацию образцов и избегать чрезмерной длины эпизодов.

6. Какие лайфхаки можно использовать для повышения эффективности работы с LLM?

Используйте контекстные окна для сохранения информации, экспериментируйте с различными архитектурами и не забывайте о важности обратной связи.

Заключение

Исследования Nebius AI подтверждают, что обучение с подкреплением является мощным инструментом для создания автономных разработчиков ПО с использованием открытых весовых LLM. Преодолевая долгосрочные, многоходовые задачи, этот метод открывает путь к масштабируемой автоматизации, которая может значительно повысить эффективность разработки.

Запустите свой ИИ проект бесплатно

ИИ-агенты искусственный интеллект онлайн для бизнеса

Лучший ИИ онлайн