Microsoft Ignite 2023: Viel Lob vom Nvidia-CEO
Die Zusammenarbeit von Nvidia und Microsoft könnte zu einer Supermacht im Markt für generative KI werden. Die nächste Welle der KI-Innovation gilt Industriebetrieben.
Einer der enthusiastischsten Redner auf der alljährlichen Ignite-Konferenz von Microsoft in der letzten Woche war kein Microsoft-Mitarbeiter. Jensen Huang, Mitbegründer und CEO von Nvidia kam während der Keynote von Microsoft-CEO Satya Nadella auf die Bühne , machte dort einige selbstbewusste Ansagen zur kommendem Bedeutung von generativer KI, der Zusammenarbeit mit dem Riesen aus Redmond und verteilte viel Lob für den Gastgeber.
"Sie verdienen ernsthafte Anerkennung dafür, dass Sie die gesamte Kultur von Microsoft so verändert haben, dass sie heute viel kollaborativer und partnerorientierter ist", sagte Huang zu Nadella. "Sie haben das Ökosystem von Nvidia und alle unsere Software-Stacks eingeladen, sich auf Azure hosten zu lassen, was bedeutet, dass wir nun Ökosystem-Partner sind. Und die Art und Weise, wie Microsoft mit Partnern zusammenarbeitet, hat sich grundlegend verändert."
Huang berichtete, wie die Partnerschaft den Cuda-Entwicklern des Chipherstellers und den etwa 15.000 Start-ups weltweit, die auf der Nvidia-Plattform arbeiten, zugutekommt: "Die Tatsache, dass sie jetzt ihren Stack nehmen und ihn ohne Modifikation perfekt auf Azure laufen lassen können, das macht meine Entwickler zu Ihren Kunden. Sie haben auch den Vorteil, dass sie mit allen Azure-APIs und -Services, dem sicheren Speicher und dem vertraulichen Computing integrieren können."
Im Gegenzug erklärte Nadella, wie Microsoft von Nvidia profitiert hat. So bestehe die größte Installationsbasis für sehr leistungsstarke KI-Maschinen "zufällig" aus Windows-PCs mit GPUs von Nvidia. Microsoft habe die leistungsstärkste KI-Supercomputing-Infrastruktur in der Cloud mit Nvidia-GPUs aufgebaut.
OpenAI, der von Microsoft unterstützte Entwickler des Textgenerators ChatGPT und des Bildgenerators Dall-E, "nutzt diese Infrastruktur, um die führenden großen Sprachmodelle (LLMs) zu liefern, während wir hier reden", so Nadella. Microsoft werde seiner Flotte auch den KI-Beschleuniger H200 von Nvidia hinzufügen, "um eine noch größere Modellinferenzierung mit der gleichen Latenz zu unterstützen, was extrem wichtig ist, da diese Modelle viel größer und leistungsfähiger werden. Über diese neue Generation von Beschleunigern zu verfügen, ist für uns eine große Sache."
Mit den virtuellen Azure Confidential GPU-Maschinen, also den VMs, die Microsoft gemeinsam mit Nvidia entwickelt hat, "können Sie KI-Modelle auf sensiblen Datensätzen in unserer Cloud ausführen", so der Microsoft-CEO.
"Wenn Sie etwa Retrieval Augmented Generation (RAG) auf dieser vertraulichen GPU-VM laufen lassen, können Sie zum Beispiel Ihre Eingabeaufforderung mit sehr abfragespezifischem Wissen aus proprietären Datenbanken und Dokumentenarchiven anreichern, während der gesamte Prozess von Anfang bis Ende geschützt bleibt", ergänzte Nadella.
Große Visionen und Vorhaben
Huang führe aus, dass Nvidia Omniverse, ein Stack, der ursprünglich für On-Prem entwickelt worden war, jetzt in der Azure Cloud verfügbar sei und sein Unternehmen einen neuen Dienst namens AI Foundry anbiete, der Unternehmen eine Sammlung kommerziell nutzbarer GenKI-Grundmodellen an die Hand gibt. Für das Computing sei die GenKI-Technologie der bedeutendste Plattformwechsel in der Geschichte, glaubt Huang. "In den letzten 40 Jahren war nichts so groß", sagte er. "Es ist größer als der PC. Es ist größer als Mobile. Es wird größer sein als das Internet. GenKI ist nicht nur ein technologisches Wunder, sondern auch gut für das Geschäft, weil sie für Unternehmen den gesamten adressierbaren Markt vergrößert", sagte Huang.
"Was wir hier sehen, ist auch die größte TAM-Erweiterung [Total Addressable Market] in der Geschichte der Computerindustrie. "Es gibt jetzt eine ganz neue Art von Rechenzentren. Im Gegensatz zu den Rechenzentren der Vergangenheit ist dieses nur für eine einzige Aufgabe bestimmt, nämlich die Ausführung von KI-Modellen und die Erzeugung von Intelligenz. Es ist eine KI-Fabrik," führte Huang aus.
KI-Fabriken seien ein neues Segment in der Computerhardware, so Huang, so wie Copilot (Microsofts Bezeichnung für Tools, die Text, Code und andere Inhalte generieren können) ein neues Segment in der Software seien. Seine Überzeugung: Wenn Startups die erste Welle von GenAI sind und Copilot in Unternehmen die zweite, dann werde GenAI in der verarbeitenden Industrie die dritte und größte Welle von allen.
"Hier werden Nvidias Omniverse und generative KI zusammenkommen, um der Industrie zu helfen, sich zu digitalisieren und von GenKI zu profitieren", so Huang. "Offen gesagt sind wir hier gerade erst in der Mitte der ersten Welle. Aber die weite Welle kommt bald."
Als Volllizenzkunde werde sein Unternehmen von Microsoft Copilot enorm profitieren. Wer glaube, dass Nvidia schon jetzt bemerkenswert schnell vorankommt, werde sich wundern was passiert, "wenn wir durch Copilot den Turbolader bekommen."