UALink : l'alternative ouverte à NVLink pour l'IA

Directeur architecture chez AMD, Kurtis Bowman pilote également le consortium UALink poru contre la domination de Nvidia sur les clusters de GPU. (Crédit S.L.)

Directeur architecture chez AMD, Kurtis Bowman pilote également le consortium UALink poru contre la domination de Nvidia sur les clusters de GPU. (Crédit S.L.)

Le consortium UALink, soutenu par AMD, HPE, Intel, Meta, Microsoft et d'autres géants du secteur, présente une alternative ouverte au protocole NVLink de Nvidia pour créer des clusters IA avec des centaines d'accélérateurs - GPU et autres - connectés dans les centres de données. 

Lors d'un IT Press Tour dans la Silicon Valley début juin, l'équipe pilotant le consortium UALink nous a détaillé - dans les locaux d'AMD à Santa Clara - les ambitions et les spécifications techniques de son protocole d'interconnexion destiné à relier efficacement des centaines d'accélérateurs (GPU, TPU...) au sein de clusters pour l'intelligence artificielle et le calcul haute performance (HPC). Cette initiative vise à répondre à la demande croissante d'un standard ouvert, alors que le marché est aujourd'hui largement dominé par NVLink, la solution propriétaire de Nvidia. 

Un consortium industriel aux membres variés  UALink réunit plus de 100 acteurs issus de différents horizons technologiques. Parmi les membres du conseil d'administration figurent AMD, Intel, Meta, Microsoft, Google, AWS, Cisco, Synopsys, HPE, Alibaba et Apple. Cette diversité reflète la volonté d'adresser un besoin transversal, comme le souligne Kurtis Bowman, président du consortium UALink et directeur architecture chez AMD : « L'un des principaux intérêts pour les membres, c'est de pouvoir s'appuyer sur une infrastructure commune, quels que soient les fournisseurs d'accélérateurs, afin de simplifier la gestion et la maintenance des clusters ». Il faut toutefois noter l'absence remarquée de Dell Technologies parmi les membres, alors que d'autres fournisseurs clefs et des hyperscalers participent activement au projet. Cette situation s'explique, selon le consortium, par une stratégie d'attente de la part de Dell, qui souhaite observer les premiers déploiements industriels avant de s'engager. 

 

On retrouve des poids lourds comme AMD, Intel, HPE dans le consortium UALink, mais pas encore Dell Technologies ou Arista Networks. (Crédit S.L.)

Spécifications techniques d'UALink 200G 1.0  La première version du protocole, UALink 200G 1.0, a été publiée en avril 2025. Elle s'appuie sur une architecture en pods pouvant regrouper jusqu'à 1 024 accélérateurs interconnectés via des switches UALink dédiés. Chaque port de switch offre une bande passante de 800 Gb/s, avec une latence de l'ordre de 2 microsecondes, adaptée aux exigences des modèles IA de grande taille. 

Le protocole UALink repose sur plusieurs couches fonctionnelles : 

- Une couche physique dérivée du standard Ethernet 802.3, permettant de réutiliser câbles, connecteurs et retimers déjà largement déployés dans les datacenters ;

- Une couche data link qui regroupe les données en paquets de 640 octets, avec un taux d'efficacité de plus de 98 % grâce à une gestion optimisée des en-têtes et du contrôle d'erreur ;

- Une couche transactionnelle qui simplifie la gestion des accès mémoire directs (lecture, écriture, opérations atomiques) entre accélérateurs, en maintenant la cohérence logicielle sans complexifier l'architecture matérielle ;

- Un modèle de routage basé sur des identifiants permettant de partitionner un pod en sous-groupes virtuels, chaque accélérateur étant adressé de manière unique.

Nathan Kalyanasundharam, Corporate Fellow chez AMD et responsable technique du consortium, nous a précisé : « Nous avons voulu un protocole simple, efficace en surface silicium et en consommation énergétique, qui ne nécessite pas de mécanismes de contrôle complexes d'un bout à l'autre. Cela permet de réduire la consommation liée à la communication, qui devient significative à l'échelle de plusieurs centaines de GPU ».  



Les pods UALink reposent sur des liens Ethernet au-delà de quatre noeuds. (Crédit S.L.)

Un contexte concurrentiel en mouvement  UALink propose une gestion flexible des switches, avec des modèles proches de l'Ethernet pour la configuration, la télémétrie et la résilience. La sécurité n'est pas oubliée : la fonction UALinkSec permet de chiffrer et d'authentifier les échanges entre accélérateurs, notamment dans des environnements multi-locataires ou de calcul confidentiel. L'architecture privilégie le scale-up (l'agrégation d'accélérateurs dans un même pod), mais prévoit aussi le scale-out via l'interconnexion de plusieurs pods par Ethernet classique, afin de construire des clusters de plusieurs milliers de GPU. 

L'arrivée de UALink intervient alors que le marché est fortement structuré autour de NVLink, la technologie propriétaire de Nvidia. Face à cette initiative ouverte, la firme a récemment annoncé l'ouverture partielle de son protocole via le programme Fusion, permettant à certains partenaires d'intégrer NVLink dans leurs propres solutions, tout en conservant un contrôle étroit sur l'écosystème. « L'ouverture de NVLink est une réaction directe à l'émergence de standards ouverts comme UALink. Mais notre approche vise à offrir davantage de flexibilité et à réduire les coûts d'acquisition et d'exploitation pour les opérateurs de datacenters », analyse Kurtis Bowman. Tandis que Nathan Kalyanasundharam précise : « L'un des objectifs majeurs [d'UALink] est de faciliter l'intégration logicielle, en travaillant avec les principaux frameworks IA pour que l'utilisation de la mémoire partagée entre accélérateurs soit transparente pour les développeurs ». 



La gestion des pods dans un cluster est des éléments clefs d'UALink. (Crédit S.L.)

Perspectives et prochaines étapes  Le consortium prévoit la disponibilité des premiers composants compatibles UALink dès 2026, avec une forte implication des fournisseurs de silicium et des hyperscalers dans la phase de validation et de déploiement. Plusieurs évolutions sont déjà à l'étude, notamment l'intégration de l'optique pour étendre la portée des interconnexions ou l'ajout de fonctions collectives dans les switchs. UALink s'inscrit dans une logique de standardisation et d'ouverture, avec l'ambition de faciliter l'accès à des infrastructures d'IA et de HPC plus flexibles et économiquement maîtrisées. Le projet bénéficie d'un large soutien industriel, mais son adoption à grande échelle dépendra de la capacité du consortium à maintenir la simplicité du protocole tout en répondant aux besoins croissants du marché. 

UALink face à NVLink

Les différences techniques entre UALink et NVLink tiennent à la fois à l'architecture, à l'ouverture de l'écosystème et aux choix de conception des protocoles. UALink s'appuie sur une architecture modulaire et configurable, utilisant des composants Ethernet standards (câbles, connecteurs, retimers) et une pile protocolaire optimisée pour la simplicité, la faible latence et la réduction de la consommation énergétique. Il permet de connecter jusqu'à 1 024 accélérateurs dans un même pod, avec une bande passante de 200 Gb/s par ligne (jusqu'à 800 Gb/s par port en x4), une latence inférieure à 2 microsecondes et une efficacité de transmission supérieure à 93 %. UALink offre également une flexibilité dans la configuration des liens (x1, x2 ou x4), une gestion logicielle simplifiée des accès mémoire directs (load, store, atomics) entre accélérateurs, et la possibilité de partitionner dynamiquement les pods pour des usages multi-tenant ou des architectures virtuelles. 

NVLink, de son côté, reste une technologie propriétaire, historiquement réservée aux accélérateurs Nvidia, avec une bande passante par GPU pouvant atteindre 1,8 To/s (soit 900 Go/s dans chaque sens) dans sa cinquième génération, et une gestion de la cohérence mémoire intégrée au protocole. NVLink impose une topologie plus contrainte (x2 par lien, ports groupés), et bien que les capacités théoriques de NVSwitch permettent de relier jusqu'à 576 GPU dans une même image mémoire, les déploiements commerciaux restent limités à 72 GPU par rack dans les systèmes actuels. Par ailleurs, NVLink Fusion, récemment annoncé, ouvre partiellement le protocole à certains partenaires, mais sans apporter une véritable interopérabilité multi-vendeurs comparable à celle de l'approche UALink. 

UALink mise donc sur l'ouverture, la flexibilité des configurations et l'intégration avec l'écosystème Ethernet pour répondre aux besoins croissants de l'IA et du HPC, tandis que NVLink - déjà disponible - conserve un avantage en termes de bande passante brute et de cohérence mémoire, mais dans un environnement plus fermé et centré sur l'offre Nvidia. 

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Cybersécurité, le double visage de l'IA

Cybersécurité, le double visage de l'IA

En cybersécurité, l'IA joue un double rôle : le gentil en aidant à détecter et à prévenir les menaces, à automatiser les processus de sécurité, à simuler et anticiper les...

Publicité