Nvidia und Google wollen zusammen die Cloud für KI neu erfinden
Im Zentrum der vertieften Zusammenarbeit von Google mit Nvidia stehen gemeinsame Innovationen bei Software und Infrastruktur für Künstlich Intelligenz. Die Vision: Chips für next generation Supercomputing.
Nvidia-CEO Jensen Huang war sichtbar stolz, als er vor Tausenden von Google-Partnern und Kunden kürzlich diese Ankündigung machte: "Generative KI revolutioniert jede Ebene des Computing-Stacks, und unsere beiden Unternehmen - mit zwei der talentiertesten und profundesten Informatik- und Computing-Teams der Welt - schließen sich zusammen, um die Cloud-Infrastruktur für generative KI neu zu erfinden."
Und weiter führte Huang aus: "Wir setzen auf jeder einzelnen Ebene an: angefangen bei den Chips, H100 für Training und Datenverarbeitung, bis hin zum Model Serving mit Nvidia L4 GPUs. Das ist ein Re-Engineering des gesamten Stacks - von den Prozessoren über die Systeme bis hin zu den Netzwerken und der gesamten Software. All das dient dazu, GCP (Google Cloud Platform) Vertex AI zu beschleunigen und für KI-Forscher und -Entwickler neuartige Software und Infrastruktur zu schaffen."
Dazu gehören die Integration von Googles serverlosem Spark-Angebot mit Nvidia-Grafikprozessoren, neue Google A3 VM-Instanzen, die von Nvidia H100 Tensor Core GPUs angetrieben werden, und Googles PaxML, das für Nvidias Accelerated Computing optimiert ist. "Bei PaxML handelt es sich um ein großes Sprachmodell-Framework, das auf JAX und OpenXLA aufbaut und das Ergebnis der hingebungsvollen Arbeit einiger erstaunlicher Informatiker ist", so der Nvidia-CEO. "Es ist wirklich bahnbrechend."
Innovation in engem Schulterschluss
Mit PaxML ermöglich Google Cloud KI-Entwicklern die Verwendung der Nvidia H100 und A100 Tensor Core GPUs für vollständig konfigurierbare und skalierbare Experimentier-Umgebungen. "Unsere Teams beginnen jetzt mit dem Aufbau der nächsten Generation von Prozessoren und der nächsten Generation von KI-Infrastrukturen. Google und wir werden an einer der weltweit ersten Instanzen unseres KI-Supercomputers der nächsten Generation namens DGX GH200 arbeiten, der auf einem revolutionären neuen Chip basiert: Grace Hopper", sagte er.
Darüber hinaus werde die Nvidia DGX Cloud AI Supercomputing und Software für Google Cloud-Kunden direkt über ihren Webbrowser verfügbar sein, um Geschwindigkeit und Skalierung für anspruchsvolle Trainingsworkloads zu bieten.
"Wir werden Nvidia DGX Cloud in GCP (die Google Cloud Platform) einbinden", so Huang. "Hier betreiben wir unsere KI-Forschung. Hier optimieren wir unsere Software-Stacks. All die Arbeit, die wir leisten, wird GCP und all den Menschen, die daran arbeiten, unmittelbar zugutekommen."
Begeisterung auch bei Google Cloud
Google Cloud und Nvidia arbeiten schon seit Jahren zusammen. So wurde Google Cloud Anfang 2023 mit der Einführung der G2 VM der erste Cloud-Anbieter, der Nvidia L4 Tensor Core GPUs anbietet. Auch wird Google Cloud eines der ersten Unternehmen weltweit sein, das Zugang zum Nvidia DGX GH200 KI-Supercomputer bekommt, um dessen Fähigkeiten für generative KI-Workloads zu erproben.
Thomas Kurian, CEO von Google Cloud, berichtete, dass er einfach begeistert von den Innovationen sei, die beide Unternehmen gemeinsam auf den Weg bringen. "Einfach gesagt: Mit der Weiterentwicklung der KI ändern sich auch die Anforderungen an die Hardware-Architektur und den Software-Stack - vom Training über Inferencing bis hin zu neuen Funktionen wie Embeddings. Google ist im Kern ein Plattformunternehmen. Und wir wollen all jene Entwickler und Kunden anziehen, die Nvidias GPU-Technologie und Software lieben. Es ist eine großartige, wirklich großartige Partnerschaft."