L’APU Instinct MI300 Zen 4 / CDNA 3 d’AMD est opérationnel en laboratoire

L’entreprise devrait ainsi être en mesure de lancer le premier APU pour les centres de données en 2023.

À l’occasion du Wells Fargo 2022 TMT Summit, Mark Papermaster, directeur de la technologie chez AMD, a précisé que l’accélérateur Instinct MI300 était déjà opérationnel dans les laboratoires de test de l’entreprise. Rappelons qu’il s’agira d’un APU et non plus seulement d’un cGPU pour centres de données.

Image 1 : L'APU Instinct MI300 Zen 4 / CDNA 3 d'AMD est opérationnel en laboratoire
© AMD

Seeking Alpha rapporte les propos suivants : “[ …] l’Instinct de nouvelle génération que nous avons déjà dans les laboratoires, le MI300, est un véritable APU de centre de données. Il s’agit d’un CPU et d’un accélérateur GPU qui exploitent l’architecture Infinity pour partager la même mémoire de manière totalement transparente.”

Les CPUs EPYC 9004 ‘changent la donne aussi pour l’environnement’ selon AMD

Zen 4 / CNDA 3

Regrouper des cœurs de CPU et des accélérateurs GPU partageant la même mémoire dans un seul package devrait booster les performances en combinant la versatilité des premiers aux capacités de traitement en parallélisme des seconds, tout en simplifiant la programmation. Dans le cas de l’Instinct MI300, AMD associera des cœurs CPU Zen 4 et des cœurs de calcul CDNA 3 avec Infinity Cache et mémoire HBM. La société devrait toujours confier la fabrication de cet APU multi-chiplet, premier APU destiné au secteur du HPC (high performance computing), à TSMC (5 nm).

Les accélérateurs AMD Instinct MI200 sont disponibles depuis mars dernier. L’entreprise prévoit de lancer ses Instinct MI300 l’année prochaine. Ces APU devraient notamment équiper le supercalculateur El Capitan, censé franchir la barre des 2 ExaFLOPS en 2024. Sur son site, AMD évoque pour l’instant, à propos de ce supercalculateur, des “processeurs AMD EPYC de nouvelle génération, dont le nom de code est Genoa” , associés à des “processeurs graphiques Radeon Instinct de nouvelle génération basés sur une nouvelle architecture optimisée pour les charges de travail de calcul haute performance et d’intelligence artificielle [qui] utiliseront une mémoire à bande passante élevée de nouvelle génération pour des performances d’apprentissage en profondeur optimales.”

Source : Seeking Alpha