Alibaba представила Qwen3.5-397B-A17B — открытую нейросеть для ИИ-агентов
Команда Qwen представила Qwen3.5-397B-A17B — флагманскую визуально-языковую модель с открытыми весами. Её позиционируют как основу для «нативных мультимодальных агентов»: от программирования и сложных рассуждений до работы с интерфейсами и видео.
Модель уже доступна в открытых весах на Hugging Face и через ModelScope. Для облачного использования есть версия Qwen3.5-Plus через официальный API. Детали в материале Postium.


Нейросеть Qwen3.5-397B-A17B — что умеет и как работает
В основе — гибридная архитектура. Инженеры объединили Gated Delta Networks с механизмом линейного внимания и разреженную Mixture-of-Experts.
Общий объём модели — 397 млрд параметров. Но во время генерации активируются только 17 млрд. Система динамически «включает» нужных экспертов, а остальные остаются неактивными. Это снижает вычислительную нагрузку по сравнению с плотными моделями сопоставимого масштаба.
Задача архитектуры — сохранить уровень «тяжёлых» флагманов и одновременно ускорить инференс.
Модель мультимодальная. Она работает с текстом и изображениями, поддерживает взаимодействие с GUI, анализ видеоконтента и агентные сценарии с цепочками действий. Поддерживается 201 язык и диалект.
Контекст — 262 144 токена нативно, с расширением до 1 010 000 токенов.
Лицензия Apache 2.0 позволяет использовать модель в коммерческих продуктах без ограничений исследовательского формата.
Как пользоваться
Открытые веса можно скачать с Hugging Face или ModelScope и развернуть самостоятельно. Для облачного сценария доступен официальный API с моделью Qwen3.5-Plus.
Почему это важно? Рынок движется в сторону агентных систем, которые не просто генерируют текст, а читают длинный контекст, анализируют изображения, работают с интерфейсами и выполняют последовательности действий.
В таких сценариях критичны скорость и стоимость каждого шага. MoE-подход в Qwen3.5 — попытка сделать крупную мультимодальную модель пригодной для реальной эксплуатации, а не только для демонстраций.
Итог: Qwen3.5-397B-A17B — это ставка на крупную мультимодальную модель с архитектурой MoE, где масштаб сочетается с более низкой вычислительной нагрузкой и открытой лицензией.


