Новости о лучших ИИ решениях, новинках машинного обучения, компьютерного зрения, ИИ агентов и больших лингвистических моделей от редакции itinai.ru
Введение в PARSCALE (Параллельное Масштабирование) Данная статья представляет метод параллельных вычислений PARSCALE, который обеспечивает эффективное и масштабируемое развертывание языковых моделей. Проблемы традиционного масштабирования Увеличение производительности языковых моделей обычно связано с ростом числа параметров или расширением вычислительных мощностей. Это приводит к необходимости значительных ресурсов и памяти, что создает сложности при развертывании. Методы масштабирования параметров, такие как […] ➡️➡️➡️
Введение в J1: Новая платформа для обучения моделей оценки Недавние достижения в области искусственного интеллекта привели к тому, что большие языковые модели (LLMs) начали выполнять не только генерацию текста, но и оценку и суждение. Это дало начало концепции «LLM как судья», где модели используются для оценки выводов, созданных другими языковыми моделями. Такие оценки важны для […] ➡️➡️➡️
Масштабируемое Образцы Без Данных: Meta AI Представляет Adjoint Sampling для Генеративного Моделирования на Основе Наград Недостаток Данных в Генеративном Моделировании Генеративные модели традиционно требуют больших и качественных наборов данных для создания образцов, которые воспроизводят основное распределение данных. Однако в таких областях, как молекулярное моделирование или физическое моделирование, получение таких данных может быть вычислительно непосильным или […] ➡️➡️➡️
Пошаговое руководство по созданию AI-агента с использованием Google ADK Набор инструментов для разработки агентов (ADK) — это открытая платформа на Python, которая позволяет разработчикам создавать, управлять и разворачивать многопользовательские системы. Его модульный и гибкий дизайн делает его подходящим как для простых, так и для сложных приложений на основе агентов. Создание простого AI-агента В этом руководстве […] ➡️➡️➡️
Google AI Представляет MedGemma: Открытый Набор Моделей для Понимания Медицинских Текстов и Изображений На конференции Google I/O 2025 компания Google представила MedGemma — открытый набор моделей, предназначенных для многомодального понимания медицинских текстов и изображений. Созданный на архитектуре Gemma 3, MedGemma предоставляет разработчикам надежную основу для создания приложений в области здравоохранения, требующих интегрированного анализа медицинских изображений […] ➡️➡️➡️
NVIDIA представляет Cosmos-Reason1: набор AI моделей для улучшения физического мышления и обоснованного рассуждения Искусственный интеллект (AI) достиг значительных успехов в обработке языка, математике и генерации кода. Однако расширение этих возможностей на физические среды остается сложной задачей. Физический AI стремится преодолеть этот разрыв, разрабатывая системы, которые воспринимают, понимают и действуют в динамичных, реальных условиях. Проблемы существующих […] ➡️➡️➡️
Языковые модели (LMs) демонстрируют впечатляющие возможности как обучающиеся в контексте, когда они предварительно обучены на обширных текстовых корпусах из интернета, что позволяет эффективно обобщать информацию из всего лишь нескольких примеров задач. Однако дообучение этих моделей для конкретных задач представляет собой значительные трудности. Обычно дообучение требует сотни или тысячи примеров, что часто приводит к ограниченным паттернам […] ➡️➡️➡️
Введение в MemEngine Исследователи из Университета Ренмин и компании Huawei разработали MemEngine — унифицированную модульную библиотеку для настройки памяти в агентах на основе больших языковых моделей (LLM). Значение памяти для LLM-агентов Агенты на основе LLM все чаще используются в различных приложениях благодаря своей способности управлять сложными задачами и выполнять множество ролей. Память является ключевым компонентом […] ➡️➡️➡️
Meta представляет KernelLLM: Модель с 8 миллиардами параметров для перевода модулей PyTorch в эффективные ядра Triton GPU Компания Meta запустила KernelLLM, языковую модель с 8 миллиардами параметров, доработанную на основе Llama 3.1 Instruct. Эта модель предназначена для автоматизации перевода модулей PyTorch в эффективные ядра Triton GPU, что упрощает процесс разработки ядер и снижает барьеры для […] ➡️➡️➡️
Пошаговое руководство по эффективной настройке Qwen3-14B с использованием Unsloth AI на Google Colab Настройка крупных языковых моделей (LLMs), таких как Qwen3-14B, требует значительных ресурсов, времени и памяти, что может затруднить быструю экспериментацию и развертывание. Unsloth AI упрощает быструю и эффективную настройку современных моделей, минимизируя использование памяти GPU, благодаря таким передовым методам, как 4-битная квантизация и […] ➡️➡️➡️
Запуск мобильного приложения NotebookLM от Google Запуск мобильного приложения NotebookLM от Google Google официально представил мобильное приложение NotebookLM, расширяющее возможности своего ИИ-ассистента для исследований на устройствах Android. Это приложение направлено на предоставление персонализированного обучения и синтеза контента непосредственно в кармане пользователей, предлагая функции, которые объединяют мобильность, осведомленность о контексте и интерактивные возможности. Расширение контекстного ИИ […] ➡️➡️➡️
Введение в UAEval4RAG Исследователи из Salesforce представили UAEval4RAG — новую методику оценки систем Retrieval-Augmented Generation (RAG), сосредоточенную на их способности отклонять неразрешимые запросы. Традиционные методики оценки в основном фокусируются на точности и актуальности ответов на разрешимые вопросы, но часто игнорируют критически важную способность систем выявлять и отклонять неподходящие или неразрешимые запросы. Проблемы существующих методик оценки […] ➡️➡️➡️
Агентный ИИ в Финансовых Услугах Недавний документ IBM Consulting под названием «Агентный ИИ в финансовых услугах: возможности, риски и ответственная реализация» описывает, как эти системы ИИ, предназначенные для автономного принятия решений и долгосрочного планирования, могут изменить операционную среду финансовых учреждений. Доклад предлагает сбалансированную структуру, которая определяет, где агентный ИИ может добавить ценность, какие риски он […] ➡️➡️➡️
Цепочка размышлений может не отражать истинное мышление ИИ: новое исследование Anthropic выявляет скрытые пробелы Метод цепочки размышлений (CoT) стал популярным способом улучшения и интерпретации процессов рассуждения крупных языковых моделей (LLMs). Основная идея проста: если модель формулирует свой ответ шаг за шагом, эти шаги должны прояснять её вывод. Это особенно важно в критически важных областях, где […] ➡️➡️➡️
Omni-R1: Продвижение Аудио Вопросов и Ответов с Помощью Обучения с Подкреплением и Авто-Генерируемых Данных Недавние разработки показывают, что обучение с подкреплением (RL) может значительно улучшить способности рассуждения крупных языковых моделей (LLM). Данное исследование сосредоточено на улучшении Аудио LLM — моделей, которые обрабатывают аудио и текст для выполнения задач, таких как ответы на вопросы. Бенчмарк MMAU […] ➡️➡️➡️
Введение системы DiskANN, интегрированной с Azure Cosmos DB для эффективного векторного поиска Современные системы данных требуют возможности поиска высокоразмерных векторных представлений. Эти представления, создаваемые моделями глубокого обучения, содержат семантические и контекстуальные значения данных, что позволяет системам извлекать результаты на основе релевантности и сходства, а не точных совпадений. Проблемы в векторном поиске Одной из главных проблем […] ➡️➡️➡️
Уязвимости безопасности в Протоколе Модельного Контекста (MCP) Критические уязвимости безопасности в Протоколе Модельного Контекста (MCP) Протокол Модельного Контекста (MCP) представляет собой значительный шаг вперед в том, как большие языковые модели взаимодействуют с инструментами, сервисами и внешними источниками данных. Несмотря на его преимущества, MCP также вводит серьезные проблемы безопасности, включая пять основных уязвимостей: Порча Инструментов, Обновления […] ➡️➡️➡️
Улучшение использования инструментов и эффективности рассуждений с помощью обучения с подкреплением Недавние достижения в области больших языковых моделей (LLMs) показывают их способность выполнять сложные задачи рассуждения и эффективно использовать внешние инструменты, такие как поисковые системы. Однако остается значительная проблема: как научить модели определять, когда полагаться на внутренние знания, а когда выполнять поиск. Хотя методы на […] ➡️➡️➡️
Проблемы больших языковых моделей в принятиии решений Языковые модели, обученные на обширных наборах данных, становятся незаменимыми инструментами для понимания и генерации языка. Их потенциал включает возможность функционирования в качестве агентов принятия решений в интерактивных средах. Однако они сталкиваются с проблемами в области принятия решений, известными как «разрыв между знанием и действием». Основные ограничения моделей Несмотря […] ➡️➡️➡️
Как создать мощную и интеллектуальную систему вопросов и ответов Обзор В этом руководстве мы демонстрируем, как построить мощную и интеллектуальную систему вопросов и ответов, объединяя возможности Tavily Search API, Chroma, Google Gemini LLM и фреймворка LangChain. Данная система использует веб-поиск в реальном времени через Tavily, семантическое кэширование документов с помощью Chroma и генерацию контекстных ответов […] ➡️➡️➡️