Le GB200 NVL72 de NVIDIA établit un nouveau record STAC-AI pour l'inférence LLM dans le trading financier, offrant jusqu'à 3,2 fois les performances de l'architecture Hopper. (En savoir plus)Le GB200 NVL72 de NVIDIA établit un nouveau record STAC-AI pour l'inférence LLM dans le trading financier, offrant jusqu'à 3,2 fois les performances de l'architecture Hopper. (En savoir plus)

NVIDIA Blackwell pulvérise le benchmark d'IA financière avec des gains de vitesse de 3,2x

2026/03/06 02:17
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com
```html

NVIDIA Blackwell pulvérise le benchmark IA financier avec des gains de vitesse de 3,2x

Iris Coleman 05 mars 2026 18h17

Le GB200 NVL72 de NVIDIA établit un nouveau record STAC-AI pour l'inférence LLM dans le trading financier, offrant jusqu'à 3,2x de performances par rapport à l'architecture Hopper.

NVIDIA Blackwell pulvérise le benchmark IA financier avec des gains de vitesse de 3,2x

L'architecture Blackwell de NVIDIA vient d'afficher les résultats les plus rapides jamais enregistrés sur le benchmark STAC-AI pour l'inférence LLM financière, le GB200 NVL72 offrant jusqu'à 3,2x d'amélioration des performances sur GPU unique par rapport à la génération précédente Hopper. Les résultats du 5 mars 2026 sont importants pour les sociétés de trading qui s'efforcent d'extraire de l'alpha à partir de l'analyse de données non structurées.

Le Strategic Technology Analysis Center, qui évalue les charges de travail de la technologie financière depuis plus de 15 ans, a testé Blackwell dans des scénarios du monde réel en utilisant les dépôts EDGAR 10-K—les rapports annuels denses que les fonds quantitatifs analysent pour obtenir des signaux d'investissement. Avec les modèles Llama 3.1 de Meta, le GB200 NVL72 a atteint 37 480 mots par seconde sur des invites financières de longueur moyenne, contre 8 237 WPS pour les systèmes GH200 doubles.

Les chiffres bruts racontent l'histoire

Sur le modèle Llama 3.1 8B avec les données EDGAR4, Blackwell a traité 224 requêtes par seconde contre 51,5 RPS pour Hopper—une amélioration de 4,3x au niveau du système. L'écart s'est creusé sur les tâches informatiquement plus lourdes : le modèle à 70B paramètres sur les dépôts EDGAR5 à contexte long a vu le débit passer de 41,4 WPS à 150 WPS.

Qu'est-ce qui rend ces gains possibles ? Le nouveau format de quantification NVFP4 de NVIDIA, exclusif à Blackwell, compresse les modèles dans des empreintes mémoire plus petites sans sacrifier la précision. Hopper utilisait la quantification FP8 ; le saut architectural vers la précision à quatre bits sur Blackwell débloque le delta de débit.

Les performances interactives comptent pour le trading

Le traitement par lots est une chose. Les décisions de trading en temps réel nécessitent des réponses rapides. Ici, Blackwell a maintenu des temps de réaction plus faibles (analogues au temps jusqu'au premier jeton) et une meilleure latence inter-mots même lorsqu'il est poussé vers un débit maximal. À des niveaux d'utilisation égaux, le GB200 NVL72 a systématiquement battu le GH200 sur les métriques de réactivité dans la plupart des scénarios de test.

Pour les bureaux de trading effectuant une analyse des sentiments sur les appels de résultats ou analysant les dernières nouvelles, cet avantage de latence se traduit directement par une prise de décision plus rapide. Le benchmark a explicitement testé l'ensemble du pipeline d'inférence, y compris la tokenisation—un travail que les déploiements réels ne peuvent pas ignorer.

Contexte du marché

Les actions NVIDIA se sont négociées à 181,41 $ le 5 mars, en hausse de 1,1 % sur la journée, avec une capitalisation boursière de l'entreprise de 4,42 billions de dollars. L'architecture Blackwell, annoncée à la GTC 2024, a été conçue spécifiquement pour les charges de travail d'IA générative. Le PDG Jensen Huang l'a positionnée comme alimentant « une nouvelle révolution industrielle », et ces résultats de benchmark fournissent des preuves concrètes de cette affirmation dans le secteur financier.

Le superchip GB200 Grace Blackwell combine deux GPU B200 avec un CPU Grace, avec des AI Tensor Cores repensés et un NVLink de cinquième génération pour une mise à l'échelle jusqu'à 576 GPU. Les résultats MLPerf précédents ont montré des gains d'entraînement de 2,2x sur Llama 3.1 405B ; ces chiffres STAC-AI confirment que des avantages similaires s'étendent à l'inférence.

Hopper reste pertinent

À noter : l'architecture Hopper, âgée de trois ans, a affiché des chiffres respectables. Les sociétés de trading avec des déploiements GH200 existants ne deviennent pas obsolètes du jour au lendemain. Mais pour les nouvelles constructions ou les entreprises où la vitesse d'inférence impacte directement les rendements, l'économie de Blackwell semble convaincante—NVIDIA affirme une réduction allant jusqu'à 25x des coûts d'exploitation de l'inférence LLM par rapport aux générations précédentes.

Les rapports STAC complets, incluant des métriques détaillées du mode interactif à travers divers taux d'arrivée, sont disponibles via les canaux officiels de STAC. Les institutions financières évaluant les mises à niveau d'infrastructure IA disposent désormais de données tierces auditées pour éclairer leurs décisions d'approvisionnement.

Source de l'image : Shutterstock
  • nvidia
  • blackwell
  • inférence ia
  • trading financier
  • llm
```
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.