Le petit modèle d'IA d'Alibaba, le QwQ-32B, est une grande menace pour les profits de la Silicon Valley dans le domaine de l'IA

 

Résumé : Alibaba Cloud a lancé le modèle d'IA open-source QwQ-32B, un modèle léger avec 32 milliards de paramètres, capable de rivaliser avec des modèles beaucoup plus grands comme le DeepSeek R1 ou o1-mini d'OpenAI. Ce modèle offre d'excellentes performances dans des domaines tels que les mathématiques, le codage et le raisonnement adaptatif, tout en étant suffisamment petit pour fonctionner sur des ordinateurs de bureau grand public. Son déploiement est moins coûteux, ce qui en fait une alternative accessible aux grandes entreprises. Déjà disponible sur des plateformes comme HuggingFace, cette initiative a renforcé la position d'Alibaba sur le marché des IA open-source, créant une concurrence avec les modèles propriétaires d'OpenAI et autres géants technologiques.

L'équipe Qwen d'Alibaba Cloud a publié un modèle d'IA open-source, le QwQ-32B, qui est suffisamment petit pour fonctionner sur du matériel grand public.

QwQ-32B ne possède que 32 milliards de paramètres, soit 21 fois moins que les 671 milliards de paramètres de DeepSeek R1, un chatbot très performant lancé par une startup chinoise qui a fait du bruit dans la Silicon Valley.

Cela signifie que QwQ-32B peut fonctionner sans problème sur un ordinateur de bureau puissant et qu'il est disponible gratuitement.

Le modèle de raisonnement de QwQ-32B intègre des capacités liées aux agents, ce qui lui permet de faire preuve d'esprit critique, d'utiliser des outils et d'adapter son raisonnement en fonction des réactions de ses interlocuteurs.

Alibaba est convaincu que son petit modèle surpasse ses grands rivaux - il rivalise avec des modèles de premier plan tels que o1-mini d'OpenAI.

L'entreprise a fourni cinq tests de référence et le QwQ-32B est en tête ou au même niveau dans chacun d'entre eux.

« QwQ-32B a réalisé un saut qualitatif en mathématiques, en code et en fonctionnalités générales, et ses performances globales sont comparables à celles de DeepSeek-R1 », a déclaré l'entreprise.

« Tout en maintenant des performances élevées, QwQ-32B réduit également de manière significative les coûts de déploiement et permet un déploiement sur site sur des ordinateurs grand public ». Cette fois-ci, Alibaba Cloud adopte la norme Apache 2.0. » 

Si l'on en croit Alibaba, QwQ-32B obtient 73,1 points sur 100 dans LiveBench, qui teste de multiples aptitudes telles que le raisonnement, le codage, les mathématiques, l'analyse de données et bien d'autres choses encore. Ce score place le modèle près du sommet, derrière le dernier Claude 3.7 Sonnet Thinking, les modèles o3-mini et o1 d'OpenAI.

QwQ affirme également être en tête du Berkeley Function-Calling Leaderboard et affiche de solides performances dans le benchmark mathématique AIME24, les tâches de codage et le suivi d'instructions. Il n'existe pas encore beaucoup de tests de référence tiers.

Pour y parvenir, les développeurs se sont appuyés sur l'apprentissage par renforcement (RL), un type d'apprentissage automatique dans lequel le modèle apprend à prendre des décisions en recevant un retour d'information sous forme de récompenses ou de pénalités.

« Des études récentes ont démontré que le RL peut améliorer de manière significative les capacités de raisonnement des modèles. Par exemple, DeepSeek R1 a atteint des performances de pointe en intégrant des données initiales à froid et une formation en plusieurs étapes, ce qui permet une réflexion approfondie et un raisonnement complexe », explique l'équipe de Qwen.

On ne sait pas si l'équipe a utilisé les réponses d'autres modèles d'IA plus puissants pour l'entraînement.

QwQ-32B est déjà disponible sur plusieurs plateformes, notamment HuggingFace, Magic Community et Ollama.

CNN rapporte que le cours des actions d'Alibaba a bondi de 8 % après cette annonce.

Les modèles d'IA à source ouverte et bon marché de la Chine sont en concurrence avec les modèles d'IA fermés d'entreprises telles que OpenAI, Anthropic ou Google. DeepSeek a déjà contraint le marché à réduire les prix et a menacé les retours sur les milliards de dollars investis dans la formation à l'IA. 

traduction de :

https://cybernews.com/ai-news/alibaba-qwq-32b-chatbot-beats-deepseek/ 

edit de linkzilla : le modèle peut être testé en ligne ici.

0 Commentaires

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Post a Comment (0)

Plus récente Plus ancienne