Pour le PDG d’Intel, avec son CPU Grace, NVIDIA suit le mouvement initié par Intel

Pat Gelsinger assure que son entreprise, loin d’être sur la défensive, est au contraire à l’offensive.

Lundi, lors de sa présentation dans le cadre de la GTC 2021, Jensen Huang, PDG de NVIDIA, a dévoilé la feuille de route de son entreprise pour les prochaines années dans de nombreux domaines, dont celui de l’IA et du HPC. L’annonce la plus emblématique est certainement l’arrivée, en 2023, d’un CPU basé sur ARM. Son nom : Grace. Une puce qui, selon NVIDIA, promet d’être jusqu’à 10 fois plus performante dans les charges de travail IA et HPC que les meilleurs processeurs x86 actuels ; une prétention qui n’a pas manqué de faire réagir Pat Gelsinger, PDG d’Intel depuis maintenant deux mois.

Image 1 : Pour le PDG d’Intel, avec son CPU Grace, NVIDIA suit le mouvement initié par Intel

Dans une interview accordée à Fortune, ce dernier déclare : “Nous avons annoncé nos [processeurs pour serveurs] Ice Lake la semaine dernière et avons reçu un accueil extrêmement positif. Avec Ice Lake, nous avons considérablement augmenté les capacités de l’intelligence artificielle. [Nvidia] nous répond. Ce n’est pas nous qui lui répondons. Il est clair que cette idée de CPU optimisés par l’intelligence artificielle est le domaine dans lequel Intel est un leader incontestable”. Il ajoute : “Nous avons également, avec notre ligne de produits Habana [un fabricant de puces spécialisées dans l’IA qu’Intel a racheté en 2019], tracé une voie très agressive et notre partenariat avec Amazon dans le domaine du cloud en est une excellente démonstration. Donc clairement, je dirais que l’idée de tels processeurs provient d’Intel. Nous sommes en train d’y intégrer l’intelligence artificielle et nous nous attendons à ce que ce soit un domaine dans lequel nous sommes sur l’offensive et non sur la défense à l’avenir”.

Des écosystèmes CPU + GPU complets pour Intel, NVIDIA, et bien sûr AMD

Il est plutôt cohérent pour Intel de se montrer offensif sur le domaine de l’intelligence artificielle. La firme présente ses processeurs Xeon Scalable de 3e génération comme “the Only x86 Data Center Processors with Built-In AI”.

Concrètement, sous le nom générique de DL Boost, ces puces intègrent des technologies d’accélération IA, notamment les jeux d’instructions AVX512_VNNI et AVX512_BF16. Selon les tests internes d’Intel, ces “optimisations matérielles et logicielles” octroient aux processeurs Ice Lake-SP des “performances d’IA 74 % plus rapides par rapport à la génération précédente et fournissent des performances jusqu’à 1,5 fois plus élevées sur un large éventail de 20 charges de travail d’IA populaires par rapport à l’AMD EPYC 7763 et jusqu’à 1,3 fois plus élevées sur un large éventail de 20 charges de travail d’IA populaires par rapport au GPU Nvidia A100” (vous pouvez accéder aux configurations et benchmarks utilisés par Intel pour avancer ces chiffres ici).

Ce qu’il faut prendre en considération, c’est qu’Intel comme NVIDIA s’évertuent désormais à proposer des solutions complètes pour les centres de données, intégrant à la fois des CPU et des GPU. Selon NVIDIA, la promesse du x10 se fait dans le cadre d’un CPU Grace “étroitement associé aux GPU NVIDIA”. Chez Intel, les Xeon Scalable de 4e génération, les Sapphire Rapids, seront quant à eux liés aux GPU Ponte Vecchio sur lesquels travaillent les équipes de Raja Koduri depuis maintenant deux ans. Ce GPU vise les 1 PFLOPS (1 000 TFLOPS) en FP16, là où l’A100 de NVIDIA atteint 312 TFLOPS. Enfin, du côté d’AMD, entre les processeurs EPYC et les GPU Instinct, la panoplie est déjà complète ; la société prendra soin de la perfectionner au fil des générations.