
Avec CXL, Unifabrix propose de cascader ses baies Smart Memory Node pour accroitre les combinaisons mémoire. (Crédit S.L.)uni
D'après une étude d'Objective Analysis, le marché émergent de la connectivité des serveurs via le protocole CXL devrait atteindre les 3,4 milliards de dollars d'ici à 2028.
Selon une publication de la société d'études spécialisée dans les semi-conducteurs Objective Analysis, le marché des produits exploitant le protocole Compute Express Link (CXL)devrait croître rapidement pour atteindre près de 3,4 milliards de dollars d'ici à 2028, à mesure que les serveurs seront commercialisés avec cette technologie. L'étude estime que la technologie CXL gagnera en popularité à mesure que les systèmes de calcul seront configurés pour tirer parti de ses nombreuses caractéristiques et que les entreprises en comprendront les avantages. Le CXL est une interconnexion CPU-vers-dispositif (SSD, GPU ou Ethernet) et CPU-vers-mémoire qui permet au processeur d'un serveur de communiquer directement avec la mémoire d'un autre serveur physique. Il permet également à tout dispositif d'interagir avec le contenu de la mémoire du CPU. La communication se fait par l'intermédiaire du bus PCI Express. Le CXL tente de résoudre un certain nombre de problèmes de mémoire, à commencer par celui de la RAM disponible dans un serveur. Par exemple, un serveur fortement sollicité peut manquer de mémoire. Dans ce cas, il peut se connecter via l'interface CXL à un autre serveur moins sollicité et lui emprunter la mémoire inutilisée.
Le CXL résout aussi le problème du « mur de mémoire ». À mesure du développement des processeurs, il est devenu difficile d'alimenter tous les coeurs en données. Les puces sont devenues plus rapides que la RAM, et le nombre de bus de mémoire n'a pas suivi. Un CPU avec 64 coeurs peut n'avoir que 12 bus de mémoire entre eux, ce qui signifie que les coeurs doivent partager des canaux de mémoire, ce qui entraîne une latence. « Le CXL ajoute davantage de canaux de mémoire au processeur, sans avoir besoin d'un nombre gigantesque de broches sur le processeur pour les bus de mémoire, et sans consommer l'énergie que tous ces bus de mémoire nécessiteraient, parce qu'un bus de mémoire consomme une grande partie de l'énergie à l'intérieur du processeur », a expliqué Jim Handy, président d'Objective Analysis et auteur de l'étude.
Déjà adopté par Intel, AMD et Arm
Le chiffre de 3,4 milliards de dollars peut ne pas sembler impressionnant dans ce secteur, mais les puces CXL coûtent en moyenne 100 dollars. À mesure de l'intégration des contrôleurs CXL dans les serveurs des différents fournisseurs, la technologie sera de plus en plus largement disponible et omniprésente. Si les trois principaux fournisseurs de processeurs pour serveurs - Intel (Xeon Sapphire Rapid), AMD (Epyc Genoa) et Arm (Google Axion par exemple, mais pas les Altra d'Ampere), - ont commencé à intégrer le support du CXL 3.0 dans leurs processeurs, et un certain nombre de fabricants de contrôleurs ont acquis une licence CXL, notamment Rambus, Marvell Technology et Samsung.
La principale utilisation du CXL se situe dans l'IA. Cette dernière consiste à déplacer des données, et si cela peut être fait plus rapidement et directement entre les puces et la mémoire, il sera utilisé. « Alimenter en permanence des coeurs de mémoire en données est vraiment inhérent au fonctionnement de l'intelligence artificielle », a fait remarquer M. Handy. « Mais le CXL profitera également aux bases de données et aux technologies plus anciennes de ce genre. »
Suivez-nous