Alibaba представляет Qwen3 — новый эталон в ИИ с открытым исходным кодом и гибридным рассуждением
Компания Alibaba выпустила Qwen3 — новое поколение своих открытых языковых моделей (LLM), устанавливающее стандарты для инноваций в области ИИ. Серия включает шесть плотных моделей (от 0.6B до 32B параметров) и две модели Mixture-of-Experts (MoE: 30B и 235B), что позволяет разработчикам создавать приложения следующего поколения для мобильных устройств, автономного транспорта, робототехники и других сфер.
Согласно данным LiveBench, Qwen3-235B-A22B стала лучшей открытой моделью, заняв 7-е место в общем рейтинге и лидируя по выполнению инструкций.
Гибридное рассуждение
Qwen3 сочетает традиционные возможности LLM с динамичными рассуждениями, переключаясь между режимами:
Разработчики могут контролировать глубину анализа (до 38K токенов), оптимизируя баланс между качеством и вычислительными затратами. Модель Qwen3-235B-A22B MoE снижает стоимость развёртывания по сравнению с аналогами.
Ключевые улучшения
Обучение на 36 трлн токенов (вдвое больше, чем у Qwen2.5) обеспечило прогресс в:
Модель лидирует в бенчмарках: AIME25 (математика), LiveCodeBench (код), BFCL (инструменты), Arena-Hard (обучение LLM).
Доступность
Qwen3 доступна для загрузки на Hugging Face, GitHub и ModelScope, а также в приложении Quark. API скоро запустят в Alibaba Model Studio. Семейство Qwen уже скачали 300 млн раз, а на его основе создано свыше 100 тыс. производных моделей.
Компания Alibaba выпустила Qwen3 — новое поколение своих открытых языковых моделей (LLM), устанавливающее стандарты для инноваций в области ИИ. Серия включает шесть плотных моделей (от 0.6B до 32B параметров) и две модели Mixture-of-Experts (MoE: 30B и 235B), что позволяет разработчикам создавать приложения следующего поколения для мобильных устройств, автономного транспорта, робототехники и других сфер.
Согласно данным LiveBench, Qwen3-235B-A22B стала лучшей открытой моделью, заняв 7-е место в общем рейтинге и лидируя по выполнению инструкций.
Гибридное рассуждение
Qwen3 сочетает традиционные возможности LLM с динамичными рассуждениями, переключаясь между режимами:
- Мышление — для сложных задач (математика, программирование, логика);
- Быстрый ответ — для стандартных запросов.
Разработчики могут контролировать глубину анализа (до 38K токенов), оптимизируя баланс между качеством и вычислительными затратами. Модель Qwen3-235B-A22B MoE снижает стоимость развёртывания по сравнению с аналогами.
Ключевые улучшения
Обучение на 36 трлн токенов (вдвое больше, чем у Qwen2.5) обеспечило прогресс в:
- Многоязычности (119 языков, лидерство в переводах);
- Интеграции агентов (поддержка Model Context Protocol);
- Логике (превосходство в математике и кодировании);
- Естественности диалога (творческие ответы, ролевые игры).
Модель лидирует в бенчмарках: AIME25 (математика), LiveCodeBench (код), BFCL (инструменты), Arena-Hard (обучение LLM).
Доступность
Qwen3 доступна для загрузки на Hugging Face, GitHub и ModelScope, а также в приложении Quark. API скоро запустят в Alibaba Model Studio. Семейство Qwen уже скачали 300 млн раз, а на его основе создано свыше 100 тыс. производных моделей.

(по материалам портала Alizila)