Actions

Google Cloud et NVIDIA améliorent les capacités de développement de l’IA



 

NVDA
+0,70%

Ajouter au/Supprimer du portefeuille

Ajouter à la Watchlist

Ajouter position

Position ajoutée avec succès à :

Veuillez attribuer un nom à votre portefeuille de titres

Type:

Achat
Vente

Date:

 

Quantité:

Cours

Valeur du point:


Levier:

1:1
1:10
1:25
1:50
1:100
1:200
1:400
1:500
1:1000

Commission:


 

Créer une nouvelle Watchlist
Créer

Créer nouveau portefeuille de titres
Ajouter
Créer

+ Ajouter une autre position
Fermer

SAN JOSE, Californie – Google Cloud et NVIDIA ont annoncé l’extension de leur partenariat visant à fournir à la communauté de l’apprentissage automatique des outils avancés pour construire et gérer plus efficacement les applications d’IA générative. Cette collaboration comprend l’adoption par Google Cloud de la nouvelle plate-forme informatique d’IA Grace Blackwell de NVIDIA et du service NVIDIA DGX Cloud.

Le partenariat prévoit également la disponibilité générale de la plate-forme DGX Cloud équipée du NVIDIA H100 sur Google Cloud, fournissant aux développeurs une plate-forme robuste et ouverte pour former et déployer l’IA avec les outils et les frameworks préférés. De plus, la prise en charge de JAX sur les GPU NVIDIA et des instances Vertex AI équipées de GPU NVIDIA H100 et L4 Tensor Core a été annoncée.

Thomas Kurian, CEO de Google Cloud, a insisté sur la nature globale du partenariat avec NVIDIA, soulignant l’objectif de fournir une plate-forme d’IA très accessible et complète pour les développeurs d’apprentissage automatique. Jensen Huang, CEO de NVIDIA, a mis l’accent sur les solutions fournies aux entreprises pour exploiter rapidement et efficacement l’IA générative.

Les éléments clés de l’extension du partenariat sont l’adoption de NVIDIA Grace Blackwell pour l’inférence en temps réel sur de grands modèles de langage, l’introduction de DGX Cloud alimenté par Grace Blackwell dans Google Cloud, et la prise en charge de JAX sur les GPU NVIDIA pour faciliter l’entraînement de modèles d’IA à grande échelle.

De plus, les microservices d’inférence NVIDIA NIM seront intégrés à Google Kubernetes Engine (GKE), ce qui accélérera le déploiement de l’IA générative dans les entreprises. Google Cloud a également rationalisé le déploiement du framework NVIDIA NeMo sur sa plateforme, améliorant ainsi la capacité à automatiser et à mettre à l’échelle la formation et le service des modèles d’IA.

Vertex AI et Dataflow ont étendu leur support aux GPU NVIDIA, fournissant une infrastructure évolutive pour gérer et déployer des applications d’IA. Ce partenariat souligne l’engagement de Vertex AI à offrir des capacités d’IA de premier plan à chaque couche de la pile d’IA.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button