AWS passe à la vitesse supérieure sur l'IA

Pour Swami Sivasubramanian, vice-président des données et de l’IA chez AWS, « l'annonce d'aujourd'hui est une étape majeure qui met l'IA générative à la portée de toutes les entreprises ». (Crédit : AWS)

Pour Swami Sivasubramanian, vice-président des données et de l’IA chez AWS, « l'annonce d'aujourd'hui est une étape majeure qui met l'IA générative à la portée de toutes les entreprises ». (Crédit : AWS)

Face à une concurrence de plus en plus forte, AWS accélère dans le domaine de l'IA. La firme vient en effet d'annoncer la disponibilité générale de Bedrock avec des modèles d'IA supplémentaires, ainsi que la personnalisation de CodeWhisperer. Titan et QuickSight profitent également de cette vague d'améliorations.

AWS multiplie les annonces autour de l'intelligence artificielle et plus exactement l'IA générative. En début de semaine, Amazon - maison-mère d'AWS - a annoncé des investissements pouvant grimper jusqu'à 4 Md$ dans Anthropic. Aujourd'hui, la firme dévoile donc un autre paquet d'innovations en la matière. Le point phare est évidemment la disponibilité générale de Bedrock. Annoncé en avril, ce service entièrement géré rend disponibles les modèles de base (dit de fondation) des principales sociétés d'IA via une API unique. Pour rappel, les FM sont de très grands modèles d'apprentissage automatique pré-entraînés sur de grandes quantités de données. Facilement applicables à un large éventail de cas d'utilisation du fait de leur flexibilité, ils sont toutefois souvent la cause de points de blocages pour les entreprises.

Premièrement, il y a le besoin d'un moyen simple de trouver et d'accéder à des LLM performants, qui donnent des résultats à la hauteur et qui sont les mieux adaptés à leurs objectifs. Deuxièmement, les clients souhaitent que l'intégration des applications soit transparente, sans gérer d'énormes clusters d'infrastructures ni engager de coûts élevés. Enfin, ils cherchent des moyens simples pour les utiliser et créer des applications différenciées avec leurs données. Cependant, au vu de l'importance de ces données, il y a un besoin de contrôler la manière dont elles sont partagées et utilisées. AWS indique qu'avec Bedrock, les utilisateurs n'ont plus à se soucier de ce type de problème. En outre, la solution offre des capacités différenciées telles que la création d'agents managés qui exécutent des tâches métiers complexes - de la réservation de voyages et du traitement des réclamations d'assurance à la création de campagnes publicitaires et à la gestion de l'inventaire - sans écrire de code.

Llama 2 de Meta arrive sur Bedrock Le moins que l'on puisse dire c'est que AWS a (enfin) compris l'intérêt de l'IA générative et met désormais un coup d'accélérateur en la matière, comme le confirme Swami Sivasubramanian, vice-président des données et de l'IA chez AWS. « Au cours de l'année écoulée, la prolifération des données, l'accès à un calcul évolutif et les avancées en matière d'apprentissage automatique ont entraîné un regain d'intérêt pour l'IA générative, suscitant de nouvelles idées susceptibles de transformer des secteurs entiers et de réimaginer la façon dont le travail est effectué », a-t-il déclaré. Et d'ajouter que : « L'annonce d'aujourd'hui est une étape majeure qui met l'IA générative à la portée de toutes les entreprises, quelle que soit leur taille, et de tous les employés, des développeurs aux analystes de données ».

En conséquence, AWS a fait le choix de connecter son service Bedrock à une sélection de LLM de premier plan, incluant les modèles d'AI21 Labs, Anthropic, Cohere, Stability AI, et dans les prochaines semaines, Meta. La firme précise que « Bedrock est le premier service d'IA générative entièrement géré à offrir Llama 2, dernière génération de LLM de Meta, par le biais d'une API ». Les clients pourront donc créer des applications d'IA générative alimentées par les modèles Llama 2 à 13B et 70B paramètres, sans avoir besoin de configurer et de gérer une quelconque infrastructure. Pour mémoire, ces modèles disposent d'améliorations significatives par rapport aux modèles Llama d'origine, avec un entraînement sur 40 % de données supplémentaires et un contexte plus long de 4 000 tokens pour travailler avec des documents plus volumineux.

CodeWhisperer prend de la hauteur avec l'IA Formé sur des milliards de lignes de code Amazon et public, CodeWhisperer est souvent présenté comme un assistant à base d'IA qui améliore la productivité des développeurs. Si ces derniers utilisent fréquemment l'outil pour leur travail quotidien, ils ont parfois besoin d'incorporer la base de code interne et privée de leur entreprise (par exemple, les API internes, les bibliothèques, les paquets et les classes) dans une application, dont aucune n'est incluse dans les données d'entraînement de CodeWhisperer. Et parmi les problèmes rencontrés, il y a notamment la difficulté à utiliser ce code interne car la documentation peut être limitée et il n'y a pas de ressources publiques ou de forums où les développeurs peuvent demander de l'aide.



Un exemple des capacités de personnalisation de CodeWhisperer. (Crédit : AWS)

En ce sens, la capacité de personnalisation ajoutée à CodeWhisperer doit aider les utilisateurs dans la personnalisation des suggestions en utilisant leur base de code privée dans un environnement sécurisé. Pour se faire, AWS indique qu'il suffit qu'un administrateur se connecte à son dépôt de code privé à partir d'une source, telle que GitLab ou S3, et planifie une tâche pour créer sa propre personnalisation. A noter que, dans un souci de sécurité, le LLM sous-jacent qui alimente CodeWhisperer n'utilise pas les personnalisations pour la formation. Cette capacité de personnalisation sera disponible en preview pour les clients dans les prochaines semaines, dans le cadre d'une prochaine version de CodeWhisperer Enterprise Tier, est-il précisé.

D'autres changements mineurs avec Titan et QuickSight En complément de cette vague de changements, AWS a annoncé que Titan Embeddings est désormais disponible de manière générale. Pour rappel, Titan Embeddings fait partie d'une famille de modèles - Titan FM - créés et pré-entraînés par AWS sur de grands ensembles de données, ce qui en fait des capacités puissantes et générales conçues pour prendre en charge une variété de cas d'utilisation. Le premier de ces modèles généralement mis à la disposition des clients est donc Titan Embeddings, un LLM qui convertit le texte en représentations numériques appelées embeddings pour alimenter les cas d'utilisation de Retrieval-Augmented Generation (RAG ou génération augmentée de récupération).

De son côté, QuickSight dispose de capacités supplémentaires de création de Business Intelligence (BI). Avec, les experts peuvent créer et personnaliser facilement des visuels à l'aide de commandes en langage naturel (par exemple, « quels sont les 10 produits les plus vendus en Californie ? » ou avec des fragments de question « top 10 produits »). Les analystes métiers décrivent simplement le résultat souhaité et QuickSight génère des visuels qui peuvent être facilement ajoutés à un tableau de bord ou à un rapport en un seul clic.



s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Les meilleures alternatives à VMware

Les meilleures alternatives à VMware

Beaucoup d'informations et d'annonces sont venues perturber les DSI, les opérateurs IT et les partenaires de VMware depuis son rachat par Broadcom. Pour certains d'entre eux,...

2024, l'année de Windows 11

2024, l'année de Windows 11

Si le parc de PC dans les entreprises françaises fonctionne encore majoritairement sous Windows 10, Microsoft a toutefois fixé la fin de son support le 14 octobre 2025....

Publicité