Microsoft выпустил Orca 2 – модель языка с улучшенными возможностями рассуждения

Майкрософт представляет Orca 2: новую эру в разработке маленьких языковых моделей средствами передового рассуждения и специализированными стратегиями обучения. Интересный шаг вперед для обработки естественного языка! 🐳🚀 #ИИ #машинноеобучение #технологии

 Microsoft выпустил Orca 2 - передовую модель языка с улучшенными возможностями рассуждения. Она использует оптимизированные стратегии обучения для создания более компактных моделей языка.

Языковые модели (LLM) обучаются на огромных объемах текстовых данных, чтобы понимать и производить язык, подобный человеческому. GPT-3, GPT-4 и PaLM-2 – лишь несколько примеров. Эти модели выполняют сложные языковые задачи, включая генерацию текста, разговорное взаимодействие и ответы на вопросы. Они применяются в различных областях, улучшая пользовательский опыт в чат-ботах, программировании, веб-поиске, поддержке клиентов и создании контента.

Orca 2: новый этап в развитии компактных ИИ-моделей

Однако, когда исследователи в области ИИ углубляются в мир компактных моделей, Microsoft представляет следующую версию Orca – Orca 2, разработанную для расширения возможностей компактных ИИ-моделей. Orca 1, благодаря интеграции подробных объяснений, превосходит традиционные модели, настроенные на инструкции, по эффективности на сложных тестах, таких как BigBench Hard и AGIEval. Orca 2 еще глубже погружается в потенциал улучшения способностей к рассуждению компактных языковых моделей.

Новый подход к обучению компактных моделей

Одним из распространенных подходов к совершенствованию компактных языковых моделей является имитационное обучение. Эти модели часто нуждаются в улучшении навыков рассуждения и понимания, несмотря на то, что они могут производить контент, подобный своим учителям. Хотя имитационное обучение имеет свои преимущества, оно имеет недостатки, которые могут ограничить способность компактных моделей достичь своего полного потенциала и использовать наилучшие решения для конкретной задачи и возможностей модели. Часто им требуется помощь в сопоставлении навыков рассуждения и понимания их более крупных аналогов, что препятствует раскрытию их полного потенциала.

Вместо простого имитирования, Orca обучает модель различным методикам рассуждения. Это включает пошаговую обработку, воспоминания и генерацию, воспоминания-рассуждения-генерацию и прямые ответы. Цель состоит в том, чтобы помочь модели приобрести способность различать наиболее эффективные стратегии решения, настроенные на особенности каждой конкретной задачи.

Возможности Orca 2 в области рассуждения

Orca 2 обладает способностью к рассуждению без предварительного обучения. Microsoft продолжает считать, что специализированные методы обучения, такие как использование в Orca 2, могут открыть новые полезные приложения. Этот метод направлен на повышение эффективности применения нейронных сетей.

Самое важное, Orca 2 защищен от начальных сигналов, вызывающих определенное поведение во время обучения. Orca 2 превращается в Осторожного Рассуждающего благодаря инновационной технике Стирания Подсказок. В отличие от слепого имитирования, этот метод использует более крупные модели в качестве источника поведения, из которых выбираются наилучшие для данной задачи.

Результаты тестирования Orca 2

Исследователи протестировали Orca 2 на обширных тестах. Они показали, что она превосходит другие эквивалентные модели в области понимания языка, рассуждения на основе здравого смысла, многократных математических задач, понимания текста, реферирования и других. Например, в задачах рассуждения без предварительного обучения Orca 2-13B достигает более 25% выше точности, чем сравнимые модели 13B и находится на уровне модели 70B.

Orca 2 является значительным шагом в развитии компактных языковых моделей. Отказ от традиционного имитационного обучения в сочетании с фокусом на обучении различным методикам рассуждения демонстрирует новый подход к раскрытию потенциала компактных ИИ-моделей.

Если вам нужны рекомендации по управлению ИИ в бизнесе, свяжитесь с нами по адресу hello@itinai.com.

Полезные ссылки: