Itinai.com it development details code screens blured futuris c6679a58 04d0 490e 917c d214103a6d65 2
Itinai.com it development details code screens blured futuris c6679a58 04d0 490e 917c d214103a6d65 2

Новая модель Transformer для проблемы коммивояжера

Легче сразу спросить 💭

AI снижает операционные расходы на 20–40% 📊 за 6 месяцев. А что бы вы сделали с этими деньгами?

Опишите задачу — обсудим, как это можно реализовать у вас.

ИИ автоматизирует 70% рутинных задач 🤖 за 3 месяца. Какие процессы в вашем бизнесе скинуть роботу?
Персонализированные AI-кампании увеличивают клиентскую базу на 30% 📈. Как это работает?
AI-аналитика сокращает ошибки в прогнозах на 50% 📉. Расскажите подробнее!
 CycleFormer: A New Transformer Model for the Traveling Salesman Problem (TSP)

«`html

Новое решение для проблемы коммивояжера (TSP) — CycleFormer

Множество новаторских моделей, включая ChatGPT, Bard, LLaMa, AlphaFold2 и Dall-E 2, появились в различных областях с момента появления трансформера в обработке естественного языка (NLP). Попытки решить комбинаторные задачи оптимизации, такие как проблема коммивояжера, с использованием глубокого обучения прогрессировали логически от сверточных нейронных сетей (CNN) к рекуррентным нейронным сетям (RNN), и, наконец, к моделям на основе трансформера.

Практические решения и ценность

Использование координат N городов (узлов, вершин, токенов) для определения кратчайшего гамильтонова цикла, проходящего через каждый узел, представляет собой сложную задачу с экспоненциально растущей вычислительной сложностью. Несмотря на это, исследователи из Сеульского национального университета представили CycleFormer, решение TSP на основе трансформеров, которое способно превзойти существующие модели благодаря уникальным характеристикам и улучшениям.

С учетом экспериментальных результатов, CycleFormer может превзойти лучшие модели на основе трансформеров, сохраняя форму трансформера в TSP-50, TSP-100 и TSP-500. Отличие в оптимальности между SOTA и TSP-500 во время декодирования множественного запуска составляет от 3,09% до 1,10%, что является улучшением в 2,8 раза благодаря CycleFormer.

Предложенная модель CycleFormer имеет потенциал превзойти существующие альтернативы, такие как Pointerformer, и может быть доработана с использованием дополнительных подходов LLM, таких как увеличение размерности вложения и добавление нескольких блоков внимания, для улучшения производительности. Кроме того, планируется включение MCTS в качестве пост-обработки в будущих исследованиях для дальнейшего улучшения производительности CycleFormer.

Для получения дополнительной информации, ознакомьтесь с исследованием.

«`

Полезные ссылки:

Новости в сфере искусственного интеллекта