Pour répondre à la demande, Samsung renforce la production de mémoires

Samsung prévoit d'augmenter sa capacité de production de mémoires DRAM et HBM en 2026. (Crédit Photo: Samsung)

Samsung prévoit d'augmenter sa capacité de production de mémoires DRAM et HBM en 2026. (Crédit Photo: Samsung)

Alors que la demande d'IA ne cesse de croître, l'augmentation de la production de DRAM et de HBM par Samsung devrait permettre aux hyperscalers et aux datacenters d'entreprise de réduire les problèmes d'approvisionnement.

La production en série par Samsung Electronics de ses puces mémoire parmi les plus avancées devrait commencer l'année prochaine afin de répondre à la forte demande dans le domaine de l'IA. Selon les analystes, cet apport pourrait contribuer à éliminer les goulots d'étranglement qui ont ralenti les mises à niveau du cloud et des réseaux d'entreprise. « La demande en HBM4 devrait également augmenter, et le fabricant prévoit de répondre de manière proactive en augmentant sa capacité de production en DRAM de 6ᵉ génération (1c DRAM) », a déclaré Samsung dans un communiqué. « L'entreprise se concentrera également sur l'expansion des ventes d'autres produits à forte valeur ajoutée, tels que les DDR5, les LPDDR5x et les SSD QLC haute densité, afin de répondre à la demande en applications IA. » Samsung indique qu'au quatrième trimestre, elle donnera encore la priorité à la mémoire HBM3E pour les serveurs et les SSD d'entreprise haute densité, pour répondre à la forte demande des centres de données d'IA et conventionnels. Cette annonce fait suite aux prévisions optimistes du concurrent SK Hynix, qui prévoit un « super cycle » prolongé sur le marché de la mémoire, après avoir indiqué que toute sa production de HBM pour l'année prochaine avait été vendue.

La reprise de la production de DRAM et de HBM pourrait également rétablir la prévisibilité des cycles d'approvisionnement en matériel IT et réduire les coûts des systèmes à haut débit. Samsung a confirmé que ses puces HBM3E de dernière génération étaient désormais livrées à « tous les clients concernés », ce qui pourrait indiquer une stabilisation de l'approvisionnement des principaux fabricants de puces d'IA comme Nvidia. Avec la production en série de HBM4 prévue pour l'année prochaine, Samsung pourrait à terme contribuer à soulager la pression sur l'écosystème global des infrastructures d'entreprise, aussi bien les fournisseurs de cloud qui construisent des clusters d'IA que les opérateurs de datacenters qui cherchent à étendre leurs capacités de commutation et de stockage. La division Foundry de Samsung prévoit aussi la mise en service, en 2026, de son usine de fabrication à 2 nm installée à Taylor, au Texas, et la fourniture de HBM4. Cette initiative pourrait contribuer à stabiliser davantage la disponibilité des composants pour les fournisseurs américains d'infrastructures de cloud et de réseaux.

Alléger la pression sur la mémoire Selon Manish Rawat, analyste en semi-conducteurs chez TechInsights, la réduction des délais de livraison de DRAM et de NAND va permettre de rattraper le retard des projets d'infrastructure, en particulier chez les hyperscalers. « À mesure que la disponibilité des composants s'améliore, passant de plusieurs mois à quelques semaines, les mises à niveau différées des serveurs et du stockage peuvent à nouveau faire l'objet d'une planification active », s'est félicité l'analyste. « Les hyperscalers devraient être les premiers à profiter de ces redémarrages, et les grandes entreprises suivront une fois que les prix et les livraisons se seront stabilisés. L'amélioration de l'accès à la mémoire haute densité entraînera également des cycles de renouvellement plus rapides et des conceptions de racks plus performantes, favorisant des configurations de serveurs plus denses. Les modèles d'approvisionnement pourraient passer de stratégies à long terme, avec des stocks importants, à des approches plus agiles, JIT (Just-in-Time) ou d'achat ponctuel. »

Selon Danish Faruqui, CEO de Fab Economics (spécialisé dans les semi-conducteurs), le rôle accru de Samsung en tant que « fournisseur significatif » de HBM3E 12H (12 couches) sera également crucial pour les hyperscalers qui planifient le déploiement de leur infrastructure d'IA en 2026. « Sans la contribution de Samsung, la plupart des programmes ASIC des hyperscalers, notamment le TPU v7 de Google, le Trainium 3 d'AWS et les accélérateurs internes de Microsoft, auraient pris un retard d'un à deux trimestres en raison de l'offre limitée en HBM3E 12H de SK Hynix », a fait remarquer M. Faruqui. « Ces produits constituent l'épine dorsale des centres de données d'IA de dernière génération, et l'augmentation des volumes dépend directement de la capacité de Samsung à les fournir. » D'autres analystes s'accordent à dire que le timing est crucial, car dans l'infrastructure d'IA, après les GPU, le goulot d'étranglement se situe désormais au niveau de la mémoire. Le rythme rapide de l'entraînement et de l'inférence des modèles d'IA a déplacé les contraintes de performance au-delà du calcul vers la bande passante et la densité de la mémoire, rendant la diversification de l'offre essentielle. « Le secteur ne souhaite pas revivre une situation similaire à celle de Nvidia, où tout repose sur les capacités d'un seul fournisseur », a pointé Pareekh Jain, CEO de Pareekh Consulting. « En encourageant Samsung à augmenter sa production aux côtés de SK Hynix, les fabricants de puces d'IA s'assurent de disposer de plusieurs sources d'approvisionnement pour éviter que la mémoire ne devienne le prochain frein aux projets d'IA et de mise à niveau du cloud. »

Pas de surproduction en vue

Même avec l'augmentation de la capacité de Samsung, les analystes préviennent que l'offre mondiale de puces mémoire avancées ne devrait pas suivre le rythme de la demande d'IA. La forte augmentation de la production de HBM met déjà à rude épreuve la capacité globale de DRAM, et ce déséquilibre pourrait persister jusqu'en 2026. Shrish Pant, directeur analyste chez Gartner, pense que toute notion de surproduction est irréaliste compte tenu des contraintes de fabrication actuelles.

« Une offre excédentaire significative de DRAM et de NAND en 2026 est très improbable, car la production de HBM consomme désormais plus d'un quart de la capacité totale des plaquettes DRAM », a souligné l'analyste. « Même si l'augmentation de la production de Samsung sera très utile, elle ne suffira pas à répondre à la demande prévue. » M. Pant fait remarquer que la mémoire reste « le catalyseur silencieux des centres de données d'IA », limitant à la fois la vitesse et l'échelle de l'IA et des infrastructures réseau à haut débit.

Un impact en plusieurs vagues Si l'augmentation de la capacité de Samsung ne devrait pas supprimer les contraintes d'approvisionnement, les analystes estiment que ses effets commenceront à se faire sentir de manière inégale dans les différents segments de l'écosystème des centres de données. « Le premier soulagement visible lié à la capacité supplémentaire de Samsung apparaîtra probablement dans les déploiements de centres de données axés sur l'IA, suivis par les infrastructures de réseau d'IA, où la mémoire à bande passante plus élevée est désormais le facteur limitant plutôt que la puissance de calcul », a avancé M. Faruqui. Selon M. Pant, les gros centres de données cloud construits sur une infrastructure traditionnelle seront probablement les principaux bénéficiaires de la stabilisation de l'offre et des prix des DRAM et des NAND, car les hyperscalers et les opérateurs continueront à optimiser leurs dépenses non liées à l'IA jusqu'en 2026 et 2027.

« Une fois que les prix de la DRAM et de la NAND se seront stabilisés, une deuxième vague de croissance proviendra des déploiements ciblés en périphérie par les réseaux de diffusion de contenu (Content Delivery Network, CDN), les opérateurs télécoms et les fournisseurs régionaux axés sur les charges de travail sensibles à la latence et à la souveraineté des données, mais progressant plus lentement en raison des contraintes liées à la répartition des sites », a estimé M. Rawat. « Les mises à niveau des réseaux d'IA se feront de manière sélective et seront regroupées dans les principaux centres de données et campus d'IA, les renouvellements plus larges des réseaux à l'échelle de l'entreprise étant reportés jusqu'à ce que des signaux de demande plus clairs et des voies de recouvrement des coûts apparaissent. »

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Cybersécurité, le double visage de l'IA

Cybersécurité, le double visage de l'IA

En cybersécurité, l'IA joue un double rôle : le gentil en aidant à détecter et à prévenir les menaces, à automatiser les processus de sécurité, à simuler et anticiper les...

Publicité