Hugging Face представляет SmolLM: улучшение работы устройственного ИИ с помощью высокопроизводительных небольших языковых моделей от 135 млн до 1,7 млрд параметров

 Hugging Face Introduces SmolLM: Transforming On-Device AI with High-Performance Small Language Models from 135M to 1.7B Parameters

“`html

Hugging Face представляет SmolLM: трансформация встроенного ИИ с высокопроизводительными небольшими языковыми моделями от 135M до 1.7B параметров

Hugging Face недавно выпустила SmolLM, семейство передовых небольших моделей, разработанных для обеспечения мощной производительности в компактной форме. Модели SmolLM доступны в трех размерах: 135M, 360M и 1.7B параметров, что делает их подходящими для различных приложений при сохранении эффективности и производительности.

Практические решения и ценность

Модели SmolLM обеспечивают высокую производительность с низкими вычислительными затратами и улучшенной конфиденциальностью пользователей. Они обучены на тщательно отобранном высококачественном наборе данных SmolLM-Corpus, включающем различные образовательные и синтетические источники данных.

Модели SmolLM построены на наборе данных SmolLM-Corpus, включающем такие высококачественные источники, как Cosmopedia v2, Python-Edu и FineWeb-Edu. Например, Cosmopedia v2 представляет собой улучшенную версию синтетического набора данных, включающего более 30 миллионов учебников, блогов и историй.

Модели SmolLM успешно прошли оценку по бенчмаркам, продемонстрировав впечатляющую производительность и превзойдя конкурентов в своих размерных категориях.

Одним из значительных преимуществ моделей SmolLM является их способность эффективно работать на различных аппаратных конфигурациях, включая смартфоны и ноутбуки.

Hugging Face также выпустила веб-демонстрации WebGPU для моделей SmolLM-135M и SmolLM-360M, демонстрирующие их возможности и простоту использования.

Заключение

Hugging Face успешно доказала, что высокопроизводительные модели можно достичь с помощью эффективного обучения на высококачественных наборах данных, обеспечивая крепкое соотношение между размером модели и производительностью. Модели SmolLM готовы изменить ландшафт небольших языковых моделей, предлагая мощные и эффективные решения для различных приложений.

Проверьте модели и подробности. Все заслуги за эту работу принадлежат исследователям этого проекта. Также не забудьте подписаться на наш Twitter.

Присоединяйтесь к нашему Telegram-каналу и LinkedIn-группе.

Если вам нравится наша работа, вам понравится наша рассылка.

Не забудьте присоединиться к нашему субреддиту ML с более чем 46 тыс. подписчиков.

Исходный пост: Hugging Face Introduces SmolLM: Transforming On-Device AI with High-Performance Small Language Models from 135M to 1.7B Parameters

“`

Полезные ссылки: