Alibaba представила Qwen3.5-397B-A17B - первую модель из новой серии. Она умеет работать с текстом, картинками и видео в рамках единой архитектуры и доступна бесплатно как open-weight модель.
В модели 397 миллиардов параметров, но для каждого запроса активируются только 17 миллиардов. Как и другие крупные ИИ-модели, она использует архитектуру mixture-of-experts, которая включает только нужные части сети в зависимости от задачи. Соотношение общих и активных параметров в Qwen3.5 необычно высокое - похоже, Alibaba разбила модель на множество узкоспециализированных экспертов. Плюс добавили новую архитектуру внимания Gated Delta Networks, чтобы ещё сильнее снизить вычислительные затраты.

По словам команды Qwen, новая модель обрабатывает запросы в 19 раз быстрее своего гораздо более крупного предшественника Qwen3-Max и в 3,5-7 раз быстрее прямого предка Qwen3-235B при контекстном окне в 256 000 токенов. При этом производительность остаётся на сопоставимом уровне.
Агентские задачи и понимание изображений
Qwen3.5 установила новые рекорды в некоторых бенчмарках, но уступает GPT-5.2, Claude 4.5 Opus и Gemini-3 Pro в других. Самый заметный прогресс - в агентских задачах: в TAU2, который измеряет способность модели работать как автономный агент, Qwen3.5 набрала 86,7 балла - почти как GPT-5.2 (87,1), но меньше Claude 4.5 Opus (91,6). В выполнении сложных инструкций модель показала лучшие результаты: 76,5 в IFBench и 67,6 в MultiChallenge. На практике она может создать презентацию из комбинации изображения и текстовых промптов.
Alibaba утверждает, что Qwen3.5 лидирует в математико-визуальных бенчмарках, включая MathVision (88,6) и ZEROBench (12). Также модель впереди в большинстве тестов на понимание документов и распознавание текста. Но в более широком бенчмарке понимания изображений MMMU она отстаёт от Gemini 3 Pro (87,2) и GPT-5.2 (86,7) с результатом 85.

В классических задачах на рассуждения и программирование другие модели всё ещё впереди: GPT-5.2 набрала 87,7 в LiveCodeBench против 83,6 у Qwen3.5. В математических соревнованиях вроде AIME26 модель получила 91,3 - меньше, чем GPT-5.2 (96,7) и Claude 4.5 Opus (93,3).
Команда объясняет скачок по сравнению с предыдущей серией Qwen3 массивным расширением фазы обучения с подкреплением. Вместо оптимизации под отдельные бенчмарки они системно увеличивали разнообразие и сложность обучающих сред. Наибольший эффект это дало именно в агентских навыках.
Модель обучали на значительно большем объёме данных с более строгой фильтрацией. Несмотря на более эффективную архитектуру, Qwen3.5 сравнялась по производительности с Qwen3-Max-Base, у которой более триллиона параметров.
Поддержка языков выросла со 119 до 201. Увеличенный словарь в 250 000 токенов (против 150 000) должен ускорить обработку большинства языков на 10-60%.
Как нативно мультимодальная модель, Qwen3.5 может обрабатывать до двух часов видео. В опубликованных демо компания показывает, как модель самостоятельно пишет Python-код для решения лабиринта и визуализации кратчайшего пути. В другом примере она анализирует видео с дорожным движением и объясняет решения водителя на основе фаз светофора.

Как GUI-агент Qwen3.5 может самостоятельно управлять интерфейсами смартфонов и компьютеров - заполнять Excel-таблицы или выполнять многошаговые рабочие процессы. Для разработчиков Alibaba предлагает интеграцию с инструментами вроде Qwen Code, который превращает инструкции на естественном языке в рабочий код.
Open-weight модель Qwen3.5-397B-A17B доступна для скачивания на Hugging Face под лицензией Apache 2.0, которая разрешает коммерческое использование и модификацию. Разработчики могут попробовать её прямо в браузере через интерфейс Qwen Chat.
Хостинговая версия Qwen3.5-Plus с контекстным окном в миллион токенов доступна через API в Alibaba Cloud Model Studio. Через API модель стоит $0,40 за миллион входных токенов и $2,40 за миллион выходных - это копейки по сравнению с тем, что берут OpenAI или Anthropic за сопоставимые модели. Впрочем, для китайских ИИ-лабораторий это уже стандарт. Правда, американский корпоративный рынок китайские компании пока не взломали, но среди стартапов, считающих каждый доллар, они набирают обороты.
Qwen3.5 появилась в разгар жёсткой гонки между китайскими ИИ-лабораториями. Zhipu AI недавно выпустила GLM-5 с 744 миллиардами параметров, нацеленную на конкуренцию с Claude Opus 4.5 и GPT-5.2 в программировании и агентских задачах. Moonshot AI представила Kimi K2.5, которая координирует до 100 субагентов параллельно. MiniMax запустила M2.5, обещая "интеллект слишком дешёвый, чтобы его измерять". А Baidu заняла первое место среди всех китайских моделей в рейтинге LMArena с Ernie 5.0 и её 2,4 триллионами параметров.

Что объединяет все эти модели: производительность на уровне западных моделей, открытая доступность и - для тех, кто хочет API-доступ - смехотворно низкие цены по сравнению с западными конкурентами. Следующая большая модель Deepseek с триллионом параметров всё ещё задерживается, но ходят слухи, что она может выйти на этой неделе.
Смотрите также
-
OpenAI отложила запуск «режима для взрослых» в ChatGPT
-
Google выпустил CLI для интеграции OpenClaw и других AI-агентов в Workspace
-
OpenAI выпустила GPT-5.4 через день после предыдущей версии
-
OpenAI выкатила GPT-5.3 Instant - модель стала меньше отказывать и морализировать
-
Google выпустил Gemini 3.1 Flash-Lite - быстрый и дешёвый ИИ для массовых задач
-
Meta тестирует AI-шопинг в своем чатботе - конкурент ChatGPT и Gemini
-
Умные очки Meta показывают модераторам в Кении интимные видео европейцев
-
Почему ИИ-ассистенты по умолчанию женского пола — и стоит ли об этом беспокоиться?
-
Perplexity выпустила эмбеддинг-модели, которые обходят Google и занимают в 32 раза меньше памяти