Nvidia s'empare de Groq

Le CEO et fondateur de Groq, Jonathan Ross, va rejoindre les équipes de Nvidia pour poursuivre le développement et l'intégration de sa plateforme. (Crédit P.K.)teforme LPU pour aider les entreprises à accélérer leurs traitements LLM. (Crédit S.L.)

Le CEO et fondateur de Groq, Jonathan Ross, va rejoindre les équipes de Nvidia pour poursuivre le développement et l'intégration de sa plateforme. (Crédit P.K.)teforme LPU pour aider les entreprises à accélérer leurs traitements LLM. (Crédit S.L.)

En mettant la main sur les actifs de Groq, une start-up californienne spécialisée dans les accélérateurs d'inférence IA, Nvidia réalise une de ses plus grandes opérations financières. Pour un montant de 20 milliards de dollars en cash, le géant de Santa Clara met la main sur une technologie d'accélération complémentaire de ses propres solutions, tout en neutralisant un concurrent potentiel sur le marché florissant de la GenAI.

En déboursant près de 20 Md$ selon CNBC pour reprendre les principaux actifs de Groq et s'offrir une licence sur sa technologie d'inférence, Nvidia met la main sur l'un des rares challengers sérieux de ses GPU sur le terrain des charges LLM temps réel. Et évite la voie d'un rachat classique plus exposé aux foudres des autorités de la concurrence. L'accord, structuré comme un montage hybride (licence technologique et rachat d'actifs assorti d'un acquihire de l'équipe dirigeante), illustre la volonté du géant des GPU de consolider son avance sur l'inférence IA sans afficher formellement une acquisition de plus dans un marché déjà ultra-concentré. 

Groq, l'alternative LPU aux GPU Nvidia  Fondée en 2016 par Jonathan Ross, l'un des concepteurs du premier TPU de Google, que nous avions rencontré en décembre 2023 à Mountain View lors d'un IT Press Tour, Groq a développé une famille d'accélérateurs baptisés GroqChip, classés dans la catégorie LPU (Language Processing Unit) et conçus dès l'origine pour l'inférence IA plutôt que pour le rendu graphique. Gravés en 14 nm chez GlobalFoundries, ces circuits visent moins la course brute au Tflops que la réduction de la latence par token et l'optimisation du coût par requête sur des charges LLM, avec un design plus simple que les GPU Nvidia mais taillé pour des calculs massivement tensoriels en faible précision. 

Groq propose autour de ces puces une plateforme complète : cartes PCIe Gen4, serveurs GroqNode 4U équipés de processeurs AMD Epyc et d'un châssis d'accélérateurs, pilotés par le SDK Groqware (compilateur, API, outils de profiling) pour porter des modèles PyTorch, TensorFlow ou ONNX sur son architecture. L'objectif affiché est d'offrir un moteur d'inférence déterministe, très prévisible en termes de latence et d'efficacité énergétique, capable de délivrer des réponses textuelles en temps quasi réel, un positionnement qui a séduit des clients dans les télécoms et les services cloud. 

GroqCloud et la brique logicielle  Pour accélérer l'adoption de ses LPU, Groq a structuré une offre cloud, GroqCloud, donnant accès à la demande à ses accélérateurs afin que les développeurs puissent tester et déployer des applications optimisées pour son architecture. Cette plateforme s'appuie en grande partie sur les briques issues du rachat de Definitive Intelligence en 2024, spécialiste d'analytique IA et d'interrogation de données en langage naturel, dont les services ont été intégrés pour faciliter l'onboarding des utilisateurs et les cas d'usage analytiques.

L'organisation de Groq en deux entités, GroqCloud pour l'accès managé à la puissance d'inférence et Groq Systems pour l'accompagnement des entreprises dans l'intégration on-premise des LPU, a contribué à positionner la start-up non seulement comme un fournisseur de puces, mais comme un acteur de plateforme IA complète. Pour Nvidia, qui pousse déjà des offres DGX et des services cloud autour de ses GPU, cette couche logicielle et servicielle vient compléter son propre écosystème au niveau de l'expérience développeur et de la mise en production d'applications IA temps réel. 

Un montage licence + rachat d'actifs  Plutôt qu'un rachat pur et simple, Nvidia a choisi un montage complexe articulé autour d'un accord de licence technologique non exclusif sur la propriété intellectuelle de Groq, combiné à l'acquisition de la majorité de ses actifs liés aux puces et à un transfert des principaux dirigeants et ingénieurs vers ses équipes. Jonathan Ross, le président Sunny Madra et plusieurs cadres clés rejoignent ainsi la firme de Santa Clara pour contribuer à l'intégration et à la montée en charge de la technologie d'inférence sous licence, tandis que l'entité Groq Cloud, recentrée sur l'exploitation de la plateforme, poursuit une activité présentée comme indépendante avec un nouveau CEO issu des rangs de la direction financière.

Ce schéma de « licensing-and-acquihire » permet à Nvidia de s'approprier l'essentiel de la valeur technologique et humaine de Groq sans en reprendre intégralement la structure capitalistique, ce qui aurait déclenché un examen antitrust nettement plus lourd dans un contexte où sa domination sur le marché des puces IA est déjà au coeur des préoccupations des régulateurs. La non-exclusivité formelle de la licence laisse théoriquement la porte ouverte à d'autres partenaires de Groq, mais la combinaison d'un chèque de 20 Md$, de l'absorption des talents clés et du plan d'intégration dans l'architecture « AI Factory » de Nvidia revient, de facto, à neutraliser un rival tout en verrouillant l'accès privilégié à sa technologie. 

Un complément stratégique pour l'inférence  Nvidia prévoit d'intégrer les processeurs Groq dans son architecture AI Factory pour étendre sa plateforme à un éventail plus large de charges d'inférence et de tâches temps réel, en s'appuyant sur les forces spécifiques des LPU : latence réduite, débit par token élevé, coût par requête optimisé et approche compiler‑centrée. Les accélérateurs Groq, moins polyvalents que les GPU généralistes mais fortement spécialisés pour l'inférence, peuvent ainsi prendre en charge certaines parties des pipelines LLM ou des services conversationnels à très faible latence, laissant aux GPU le gros des phases d'entraînement ou des charges mixtes calcul/graphique. 

En combinant ces briques, Nvidia renforce son argumentaire face aux hyperscalers et grands comptes qui cherchent à rationaliser leurs architectures IA autour d'un nombre limité de fournisseurs, en offrant une palette d'unités de calcul plus fine allant du GPU classique à des blocs dédiés à l'inférence déterministe. Cette stratégie vise aussi à prévenir le risque qu'un acteur comme Groq ne vienne grignoter, à terme, la très rentable base installée de GPU d'inférence dans les datacenters, en alignant la plateforme de Groq sur la feuille de route produits de Nvidia. 

Des questions de concurrence renforcées  Cette prise de contrôle de fait d'un concurrent par le principal fournisseur mondial de puces IA intervient dans un marché déjà marqué par une concentration extrême, où Nvidia capte la majeure partie des investissements datacenter liés à l'IA. En absorbant la technologie d'inférence et les talents de Groq, Nvidia élimine un rival prometteur et renforce encore son pouvoir de marché, au risque d'alimenter les inquiétudes des autorités de concurrence sur la capacité des start-up d'accélérateurs alternatifs à émerger durablement. 

Le choix d'un montage licence et rachat d'actifs plutôt qu'une acquisition classique apparaît ainsi comme un moyen de limiter la portée des contrôles antitrust tout en consolidant, dans les faits, la mainmise de Nvidia sur la chaîne de valeur de l'inférence IA, des puces aux plateformes cloud. Pour les clients, cette opération promet des gains d'intégration et de performance, mais elle réduit aussi la diversité de l'offre et pourrait, à terme, peser sur la dynamique concurrentielle et les conditions tarifaires sur un marché déjà largement dominé par le géant américain. 

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Cybersécurité, le double visage de l'IA

Cybersécurité, le double visage de l'IA

En cybersécurité, l'IA joue un double rôle : le gentil en aidant à détecter et à prévenir les menaces, à automatiser les processus de sécurité, à simuler et anticiper les...

Publicité