
Pour Daniel Spurling, vice-président senior produits chez Teradata, AI Factory facilite l’exécution de projets IA exigeants en local, tout en préservant les ressources critiques et la maitrise des données. (Crédit photo: Teradata)
Pour aider les entreprises à développer et gérer leurs projets d'IA directement sur site, sans recourir au cloud, Teradata lance AI Factory.
Exécuter des charges de travail IA en local s'accompagne souvent de défis techniques et organisationnels : surcharge des infrastructures partagées, architectures hybrides complexes ou coûts imprévisibles. Pour simplifier ces déploiements, Teradata regroupe désormais plusieurs de ses outils existants dans une offre unifiée baptisée AI Factory, conçue pour que les data scientists puissent développer et opérer des projets IA sur site, en toute autonomie.
« De nombreux départements IT utilisent déjà à plein leur système Teradata pour des traitements critiques, et ne souhaitent pas voir ces ressources monopolisées par des expérimentations IA », explique Daniel Spurling, vice-président senior en charge des produits chez le spécialiste du datawarehouse. Jusqu'ici, les entreprises devaient recourir à une architecture hybride combinant les ressources on-premise avec VantageCloud pour isoler les environnements. Avec AI Factory, cette séparation devient native, rendant possible le déploiement des charges IA les plus lourdes directement sur site, tout en assurant un meilleur contrôle des coûts et de la maîtrise des données, souligne le dirigeant.
Un environnement complet pour les data scientists
Proposée pour la première fois sous forme d'une stack intégrée et clé en main, AI Factory regroupe le moteur de base de données de Teradata, la suite AI Workbench (incluant ClearScape Analytics, ModelOps, JupyterHub, des outils d'analyse embarquée IA/ML, un Enterprise Vector Store et le support du format Open Table) ainsi qu'un ensemble de microservices IA (RAG, embeddings, reranking, garde-fous...). Selon Michael Ni, analyste chez Constellation Research, cette combinaison donne aux entreprises les moyens de faire évoluer leurs projets IA avec une solution cohérente, intégrant nativement la gouvernance, la traçabilité, la performance et la conformité. « Ce qui ressort, c'est l'intégration des pipelines LLM, de la recherche vectorielle et de ModelOps dans une plateforme clé en main, couvrant tout le cycle de vie de l'IA, de l'expérimentation à la production », souligne-t-il.
La solution se veut également adapté aux équipes techniques, avec une expérience familière. « L'environnement inclut des outils éprouvés comme JupyterHub et ModelOps, bien connus des équipes data, ce qui évite de ralentir les projets dans des goulots d'étranglement liés à la configuration ou à la conformité », commente Robert Kramer, analyste principal chez Moor Insights & Strategy. Il met aussi en avant le modèle de tarification prévisible, pensé pour éviter les mauvaises surprises souvent associées aux ressources cloud.
Une réponse aux exigences réglementaires
Si le coût et le contrôle restent des leviers importants pour internaliser l'IA, la pression réglementaire pèse également dans la balance. « Entre la montée des exigences sur la confidentialité, les inquiétudes liées à la souveraineté des données et les coûts aléatoires du cloud, les entreprises reconsidèrent sérieusement ce qui doit rester local », constate Robert Kramer. Cette réflexion concerne en particulier les secteurs de la santé, des finances ou public, où la sensibilité des données impose des restrictions fortes.
Face à la concurrence d'acteurs comme IBM, Dell ou HPE, également présents sur le créneau de l'IA on-premise, l'éditeur mise sur l'intégration native avec ses systèmes analytiques déjà en place chez ses clients. « L'avantage ici, c'est qu'il n'est pas nécessaire de repartir de zéro ou de ré-architecturer entièrement les systèmes existants », observe Robert Kramer.
Un partenariat technologique avec Nvidia
AI Factory bénéficie aussi d'une intégration validée avec l'écosystème Nvidia, via le programme Nvidia Enterprise AI Factory Validated Design. Celui-ci combine les GPU Blackwell, les logiciels AI Enterprise et les solutions réseau du fournisseur. « Nvidia fournit la puissance de calcul, Teradata apporte la plateforme analytique d'entreprise », résume Michael Ni. Grâce à cette intégration, les entreprises ont la possibilité de gérer localement des charges lourdes comme l'entraînement ou l'inférence de modèles IA, tout en évitant de recourir à des GPU cloud coûteux et moins prévisibles.
Suivez-nous