
Laurent Bataille, président de Schneider Electric France, monte en puissance sur les systèmes de refroidissement liquide pour accompagner la percée de l'IA. (Crédit S.L.)
Face à l'explosion de la demande en intelligence artificielle, Schneider Electric, spécialiste des systèmes électriques et de refroidissement, accélère en France et à l'international. L'entreprise mise sur l'innovation industrielle et le refroidissement liquide, notamment après le rachat du spécialiste américain Motivair, pour accompagner la densification extrême des centres de données.
Le marché des datacenters connaît une dynamique sans précédent, portée par la montée en puissance de l'intelligence artificielle et la densification des infrastructures numériques. « Il y a une très grosse accélération du marché à la fois mondiale mais également plus spécifiquement en France », nous a confié Laurent Bataille, président de Schneider Electric France, lors d'un point presse à Nanterre. Cette dynamique s'explique par deux phénomènes majeurs : la mutation technologique liée à l'IA, qui bouleverse l'architecture des datacenters, et l'explosion des besoins en capacité de calcul. « Entre 2022 et 2030, le nombre de data centers dans le monde va tripler, passant de 105 GW à 255 GW de capacité installée », précise le dirigeant. Cette croissance, d'abord très marquée en Amérique du Nord, gagne désormais l'Europe et la France, où Schneider Electric voit « une vraie opportunité d'attirer beaucoup plus de datacenters » sur le territoire national. L'enjeu est de taille : aujourd'hui, l'Europe ne représente qu'une fraction des capacités mondiales de calcul (4%), alors même que la demande explose dans les entreprises et le grand public sous l'effet de l'IA générative et de l'entrainement continu des modèles massifs de type LLM. Une belle opportunité pour Schneider Electic et ses concurrent Emerson Electic, Rittal ou encore Vertiv.
Cette demande s'accompagne d'une transformation des besoins énergétiques et thermiques. « Le grand changement, c'est que les GPU amènent une densité de puissance bien supérieure dans les racks, avec un challenge non négligeable : comment évacuer la chaleur ? », explique Laurent Bataille. Là où les data centers traditionnels fonctionnaient avec des densités inférieures à 40 kW par rack, les architectures IA dopées aux GPU dépassent désormais les 120 kW, et certains projets approchent déjà les 500 kW par rack, soit plus de dix fois la densité d'un datacenter classique. Selon Nathaniel Ives, directeur commercial Entreprise France chez Nvidia, la puissance de calcul des GPU a été multipliée par un million en dix ans, et chaque nouvelle génération de puces double ou triple encore les performances. Et, les plus grands projets en France visent des campus de 400 à 1 000 MW, capables d'accueillir jusqu'à 25 000 GPU par site. À cette échelle, le refroidissement par air atteint ses limites physiques.
Surchauffe électrique
En 2023, l'IA représentait déjà 8% de la consommation des datacenters mondiaux (4,3 GW sur 57 GW). En 2028, cette part pourrait atteindre 15 à 20% (14 à 19 GW sur 90 GW), selon le Schneider Electric Sustainability Research Institute. La France dispose d'atouts majeurs pour capter cette vague d'investissements : « Nous avons à la fois de l'électricité disponible en excès, grâce à notre parc nucléaire et une capacité à connecter au réseau plus vite, ce qui est une opportunité massive d'investissement », insiste le président de Schneider Electric France. En 2024, RTE a en effet produit 539,0 TWh pour une consommation de 449,2 TWh, ce qui donne une surcapacité de 89,8 TWh. Cette situation résulte d'une forte reprise de la production (notamment nucléaire et hydraulique) et d'une consommation qui reste inférieure aux niveaux d'avant-crise du Covid. L'État français a d'ailleurs identifié 35 sites favorables à l'installation de datacenters, dont 15 pouvant atteindre 750 MW, et accélère les procédures administratives via le statut de Projet d'Intérêt National Majeur.
Le rachat de Motivair a permis à Schneider Electric d'ajouter à son catalogue des racks haute densité taillés pour l'IA. (Crédit S.L.)
Schneider Electric, qui réalise plus de 2 milliards d'euros de chiffre d'affaires dans l'Hexagone en 2024 (pour un chiffre d'affaires globale de 36 Md€), investit plus de 110 millions d'euros dans ses usines françaises pour accompagner cette dynamique, en particulier à Chartres-de-Bretagne et Mâcon, où sont produits les équipements de basse et moyenne tension dédiés aux infrastructures numériques et nucléaires. Schneider Electric se positionne ainsi comme un acteur clé de la transformation du secteur, en proposant des solutions couvrant toute la chaîne de valeur, « du réseau électrique jusqu'à la puce et de la puce jusqu'au système de refroidissement », selon le concept « From Grid to Chip and Chip to Chiller ». « Nous connectons et alimentons en énergie à peu près tout ce qui vous entoure. Nous aidons les machines à communiquer entre elles et avec vous pour personnaliser votre quotidien », résume Laurent Bataille.
Nvidia sur tous les fronts
La stratégie du groupe s'appuie aussi sur des partenariats technologiques, notamment avec Nvidia. « Nous travaillons avec Nvidia à la fois sur les infrastructures de cooling pour voir comment l'augmentation de densité de puissance peut être gérée de façon mécanique, mais aussi en termes d'approvisionnement de puissance électrique et de simulation des data centers », détaille le dirigeant. Schneider Electric propose ainsi des outils de jumeaux numériques pour optimiser le design des centres de données et garantir leur évolutivité à long terme. Enfin, la croissance des datacenters IA s'accompagne de l'habituelle réflexion sur la valorisation de la chaleur, enjeu clé pour la communication externe et l'intégration urbaine de ces infrastructures. « Il y a de vraies opportunités, mais il faut les actionner », conclut Laurent Bataille, évoquant les réseaux de chaleur urbains et la nécessité de trouver des synergies locales pour réutiliser l'énergie produite par les data centers. Une équation difficile à résoudre dans un grand nombre de villes - comme à Marseille saturée de datacenters sur le port - où la récupération de la chaleur pour chauffer des immeubles est loin d'être évidente : reste les exemples habituels de piscines et d'arboretums chauffés...
Refroidissement liquide, la colonne vertébrale des datacenters IA
Pour répondre à la densification extrême des datacenters IA, Schneider Electric mise sur le refroidissement liquide, une technologie longtemps réservée aux HPC, désormais industrialisée à grande échelle grâce à l'intégration de Motivair. « L'usage haute densité requiert des infrastructures de refroidissement spécifiques. Le refroidissement par air ne permettra pas de traiter cette demande », explique François Salomon, responsable du développement de l'offre froid climatisation chez Schneider Electric. Cette affirmation s'appuie sur une réalité physique : l'air, en tant que fluide caloporteur, atteint très vite ses limites dès que la dissipation thermique par rack dépasse 40 à 45 kW, alors que les clusters IA consomment entre 120 et 500 kW par rack. Pour répondre à cette demande, le rachat de Motivair en 2024 par Schneider Electric a marqué un tournant stratégique. Cette société américaine, forte de plus de trente ans d'expérience dans le refroidissement liquide pour supercalculateurs, apporte au fournisseur français une gamme complète et modulaire de solutions, capables de répondre aussi bien aux besoins des petits datacenters qu'aux campus géants de l'IA. « Motivair est un des leaders du marché sur les technologies de refroidissement liquide direct-to-chip. Ce rachat nous permet de proposer une offre complète, depuis le refroidissement du GPU au travers des cold plates jusqu'aux CDU, la colonne vertébrale des architectures liquid cooling », explique François Salomon. Cette intégration permet à Schneider Electric de couvrir toute la chaîne de valeur, du rack individuel aux infrastructures de plusieurs mégawatts, tout en garantissant une évolutivité et une interopérabilité avec les standards du marché (OCP, Open19).
Les CDU de Motivair vont de 50 kW à 2,3 MW. (Crédit S.L.)
La gamme de CDU (Coolant Distribution Units) Schneider Electric, enrichie par Motivair, comprend sept modèles standards, du petit CDU de 50 kW, pour les baies individuelles ou les déploiements progressifs, jusqu'aux mastodontes de 500 kW, 1,7 MW et même 2,3 MW pour les clusters GPU les plus gourmands. Ces unités, disponibles en version InRack ou en salle, assurent la distribution et le contrôle du fluide caloporteur dans les architectures direct-to-chip ou immersives. « Les CDU sont modulaires et peuvent évoluer en fonction des besoins. Ce n'est pas figé : on peut faire évoluer l'infrastructure sans tout remplacer », insiste François Salomon, soulignant ainsi la flexibilité offerte aux exploitants de datacenters, qui peuvent accompagner la montée en puissance de leurs charges IA sans devoir réinvestir massivement à chaque nouvelle génération de serveurs. Chaque CDU intègre une boucle d'eau secondaire, isolée et régulée par un contrôleur, qui permet de contrôler avec une grande précision le débit et la température du fluide. Grâce à leurs échangeurs thermiques en acier inoxydable, à leur compatibilité avec les protocoles de supervision (Modbus, BACnet) et à leurs fonctions de redondance intégrées, ces équipements garantissent un refroidissement optimal tout en éliminant le risque de condensation, un point critique pour la sécurité des équipements électroniques. Les CDU Schneider Electric sont ainsi certifiés UL/CSA/CE, pour se conformer aux règlements internationaux. Les petits CDU de 50 kW sont particulièrement adaptés aux configurations où la montée en densité se fait progressivement, permettant aux opérateurs de tester et d'optimiser leur architecture avant de passer à l'échelle. Les gros CDU, de 500 kW à 2,3 MW, répondent quant à eux aux besoins des datacenters hyperscale, capables d'accueillir plusieurs milliers de GPU sur un même site.
Les autres briques de l'architecture « Chip to Chiller »
Autour de ces CDU, Schneider Electric propose une gamme complète de composants pour une gestion fine de la chaleur. Les plaques froides (cold plates), développées et certifiés avec les fabricants de serveurs (Dell, HPE, Lenovo...) et Nvidia, sont positionnées directement sur les CPU et GPU. Elles captent la chaleur au plus près de la source, avant de la transférer vers le circuit de refroidissement liquide. Cette approche garantit une dissipation thermique maximale, même pour les racks les plus denses, et limite le risque de points chauds susceptibles de réduire la durée de vie des composants. Les portes froides ChilledDoor, installées à l'arrière des baies serveurs, représentent une autre innovation. Capables d'évacuer jusqu'à 75 kW par baie, elles éliminent 100% de la chaleur à la source et permettent jusqu'à 90% d'économie d'énergie par rapport à la climatisation traditionnelle. « Cette solution permet d'optimiser la performance thermique tout en prolongeant la durée de vie du matériel IT et en éliminant le besoin de climatisation traditionnelle », explique François Salomon. Les ChilledDoor sont compatibles avec les racks standards du marché et intègrent une régulation par automate PLC, une détection de fuites et des ventilateurs EC modulables, garantissant une gestion fine et sécurisée des flux thermiques.
Double pompe pour assurer la redondance en cas de panne mécanique. (Crédit S.L.)
Pour les salles informatiques en transition ou les baies hybrides, Schneider Electric propose également des CDU liquide/air (HDU), qui capturent la chaleur via les plaques froides et la rejettent dans l'air ambiant, où elle est ensuite prise en charge par les systèmes de climatisation classiques. Cette approche facilite l'intégration progressive du refroidissement liquide dans des environnements existants, sans avoir à revoir entièrement l'architecture thermique du site.
Le choix du fluide : eau + 25% glycol
Un point technique essentiel concerne le liquide e utilisé dans ces systèmes. « Le fluide, c'est de l'eau avec 25% de glycol pour assurer la fluidité et éviter le gel lors du transport », précise François Salomon. Ce mélange, couramment utilisé dans les réseaux de chauffage urbain, possède également des propriétés biocides et anticorrosion, essentielles pour garantir la sécurité et la longévité des installations. Le choix de l'eau glycolée répond à une contrainte très concrète : lors du transport des serveurs, notamment par avion, les soutes ne sont pas pressurisées, et le risque de gel des capillaires doit être anticipé. De plus, la viscosité légèrement supérieure du mélange par rapport à l'eau pure implique une consommation de pompe un peu plus élevée, mais celle-ci reste inférieure à celle des ventilateurs nécessaires au refroidissement par air pour des densités équivalentes. « Pomper de l'eau glycolée est plus consommateur que de l'eau pure, mais cela apporte des propriétés antigel et biocides indispensables », ajoute François Salomon, qui précise que toutes les spécifications actuelles prévoient l'usage de ce mélange, même si techniquement les équipements sont compatibles avec de l'eau pure si les conditions de transport le permettent. Les circuits sont fermés et étanches, avec une filtration très fine à 25 microns pour éviter tout dépôt ou pollution, et des systèmes de détection de fuite intégrés pour garantir la sécurité des installations.
L'un des principaux arguments en faveur du refroidissement liquide est son efficacité énergétique. Selon François Salomon, « les architectures en liquid cooling permettent un gain significatif en termes de performance d'infrastructure. Pour chaque kilowatt, le serveur consommera moins d'utilité annexe ». Les CDU Schneider Electric permettent d'atteindre un PUE (Power Usage Effectiveness) inférieur à 1,1, alors que les meilleurs datacenters à refroidissement par air en France plafonnent à 1,25. Cela signifie que pour chaque kilowatt consommé par les serveurs, seuls 100 à 110 watts supplémentaires sont nécessaires pour l'infrastructure de refroidissement, contre 250 watts pour les architectures traditionnelles. Cependant, cette efficacité doit être mise en perspective. « Au final, la consommation totale des datacenters continue d'augmenter, car la densification permet de faire plus de choses sur la même surface, mais la puissance totale appelée progresse », reconnaît François Salomon. Autrement dit, si chaque rack devient plus performant et consomme moins d'énergie annexe, le nombre total de racks et la puissance de calcul globale augmentent, tirant la consommation vers le haut. Cette réalité est assumée par Schneider Electric, qui insiste néanmoins sur la nécessité de répondre à la demande croissante de calcul IA tout en optimisant l'efficacité des infrastructures.
Contraintes d'intégration et de maintenance
Adopter le refroidissement liquide à grande échelle implique néanmoins des contraintes d'intégration et de maintenance. La cohabitation de deux systèmes (liquide pour les serveurs haute densité, air pour les équipements annexes) complexifie la gestion des salles informatiques, et nécessite une planification rigoureuse en amont. « Il faut bien penser l'infrastructure en amont, c'est pour ça que nous accompagnons beaucoup les clients sur l'architecture pour éviter toute limitation », insiste François Salomon. La filtration très fine, la détection de fuites et la maintenance des circuits fermés exigent des compétences spécifiques et une vigilance accrue, même si l'expérience acquise dans les supercalculateurs et les réseaux de chauffage urbain fiabilisent ces installations.
Enfin, la question de l'interopérabilité et de la standardisation est centrale. Schneider Electric travaille activement avec les principaux acteurs du marché, dont Nvidia, Dell et HPE, pour garantir la compatibilité des plaques froides et des CDU avec les standards internationaux. « Nous avons vraiment un laboratoire qui teste l'intégralité de la chaîne, pour garantir la compatibilité, l'efficacité et la fiabilité du système », explique François Salomon. Cette démarche vise à rassurer les exploitants sur la pérennité de leurs investissements, alors que chaque génération de serveurs introduit de nouveaux formats et de nouvelles exigences thermiques. Enfin, Schneider Electric s'engage sur l'interopérabilité et l'intelligence embarquée de ses solutions, facilitant leur intégration dans son écosystème EcoStruxure pour une gestion centralisée et sécurisée de la performance énergétique. « L'intégration de Motivair nous permet de proposer une architecture de refroidissement complète, intelligente et durable, conçue pour accompagner l'essor de l'IA générative et des infrastructures numériques intensives », conclut François Salomon.
Suivez-nous