Résumé : Le nouvel "AI Trust Score" développé par Tumeryk révèle que certains modèles d'IA chinois, notamment DeepSeek, surpassent des concurrents américains comme Llama dans des domaines spécifiques tels que la protection des informations sensibles. Ce système d'évaluation note les modèles de 0 à 1000 selon neuf critères essentiels incluant la sécurité, la toxicité et l'équité. Les tests montrent des écarts significatifs : DeepSeek NIM sur NVIDIA a obtenu 910 points contre 687 pour Claude Sonnet 3.5 d'Anthropic et 557 pour Llama dans la catégorie de divulgation d'informations sensibles. Pour les responsables de la sécurité des systèmes d'information, Tumeryk propose l'AI Trust Manager, une plateforme offrant des analyses en temps réel et des recommandations pour sécuriser les déploiements d'IA, tout en soulignant que plusieurs modèles chinois opèrent sur des infrastructures américaines conformes aux réglementations internationales.
Les modèles d'IA chinois (comme DeepSeek) sont plus performants que les modèles américains comme Meta Llama dans certains domaines tels que la divulgation d'informations sensibles, selon un nouveau score de confiance de l'IA présenté par le site Tumeryk.
Ce score évalue les modèles d'IA en fonction de neuf facteurs clés, notamment les fuites de données, le contenu toxique, la véracité et la partialité. Cela permet aux responsables de la sécurité des systèmes d'information de s'assurer que leurs déploiements d'IA sont sécurisés, conformes et dignes de confiance, et offre aux développeurs des solutions pour résoudre tout problème dans leurs applications d'IA.
« Pour les responsables de la sécurité de l'information et les professionnels de la sécurité, Tumeryk propose l'AI Trust Manager, une plateforme robuste pour surveiller et corriger les applications d'IA. Cet outil fournit des informations en temps réel sur les performances des systèmes d'IA, identifie les vulnérabilités et recommande des mesures exploitables pour renforcer la sécurité et la compliance », déclare Rohit Valia, PDG de Turmeric. « En intégrant l'AI Trust Manager, les entreprises peuvent gérer les risques de manière proactive et s'assurer que leurs déploiements d'IA s'alignent sur les normes réglementaires et les directives éthiques. »
Le score de confiance de l'IA prend en compte neuf facteurs critiques : injection de prompt, hallucinations, traitement non sécurisé des résultats, sécurité, toxicité, divulgation d'informations sensibles, vulnérabilité de la chaîne d'approvisionnement, sécurité psychologique et équité. L'évaluation de ces facteurs permet d'obtenir un score de confiance global allant de 0 à 1000, les scores les plus élevés indiquant une plus grande confiance.
Des évaluations récentes utilisant le modèle AI Trust Score ont révélé que certains modèles d'IA chinois, tels que DeepSeek, Alibaba et d'autres, présentent des normes de sécurité et de conformité plus rigoureuses que ce qui avait été annoncé précédemment. DeepSeek fonctionne notamment sur des plateformes basées aux États-Unis, comme NVIDIA et SambaNova, ce qui garantit la sécurité des données et le respect des réglementations internationales. Ces résultats remettent en question les perceptions dominantes et soulignent l'importance d'évaluations objectives et basées sur des données dans l'industrie de l'IA. Par exemple, dans la catégorie de la divulgation d'informations sensibles, Deepseek NIM sur NVIDIA a obtenu un score de 910 contre 687 pour Anthropic Claude Sonnet 3.5 et 557 pour Meta Llama 3.1 405B.
Pour en savoir plus, consultez le site de Tumeryk.
traduction de :
https://betanews.com/2025/03/13/deepseek-outperforms-us-models-in-new-ai-trust-score/
Enregistrer un commentaire
Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.