KI-Chips: Nvidia meldet rasante Nachfrage nach Blackwell-CPU
Sowohl bei Hopper- als auch bei Blackwell-Systemen von Nvidia gibt es Lieferengpässe. Die Nachfrage nach Blackwell wird "mehrere Quartale" das Angebot übersteigen, sagt Nvidias Finanzchefin Colette Kress. CEO Jensen Huang äußert sich zu kolportierten Problemen mit Blackwell-CPUs.
Colette Kress, Finanzchefin von Nvidia, sagte, das Unternehmen sei dabei, das Angebot zu skalieren, um die unglaubliche Nachfrage nach den kürzlich eingeführten Blackwell-GPUs und den dazugehörigen Systemen zu befriedigen. Diese neuen Chips werden generative KI-Leistung und -Effizienz deutlich steigern.
Kress äußerte sich während der Bilanzpressekonferenz des KI-Computing-Giganten am Mittwoch anlässlich der Zahlen zum dritten Quartal. Der Umsatz hat sich auch 35,1 Mrd. US-Dollar fast verdoppelt - vor allem dank der anhaltend hohen Nachfrage nach Chips und Systemen für Rechenzentren.
In einem vorbereiteten Kommentar zu den jüngsten Ergebnissen sagte Kress, dass Nvidia mit der Auslieferung von Blackwell-Produkten, die jetzt in voller Produktion sind, im Januar beginnen wird. Nvidia plant, die Auslieferungen im Geschäftsjahr 2026 zu erhöhen. "Sowohl bei Hopper- als auch bei Blackwell-Systemen gibt es gewisse Lieferengpässe, und es wird erwartet, dass die Nachfrage nach Blackwell das Angebot für mehrere Quartale im Geschäftsjahr 2026 übersteigen wird", schrieb sie.
In der Telefonkonferenz fügte Kress hinzu, dass Nvidia "auf dem besten Weg ist", die frühere Blackwell-Umsatzschätzung von mehreren Milliarden Dollar für das vierte Quartal, das Ende Januar endet, zu übertreffen. "Blackwell ist eine anpassbare KI-Infrastruktur mit sieben verschiedenen Typen von Nvidia-Chips, mehreren Netzwerkoptionen und für luft- und flüssigkeitsgekühlte Rechenzentren", so die CFO. "Derzeit konzentrieren wir uns darauf, die starke Nachfrage zu bewältigen, die Systemverfügbarkeit zu erhöhen und unseren Kunden den optimalen Mix an Konfigurationen zu bieten."
Jensen Huang über Blackwell-Probleme und Umsetzung der Roadmap
Während der Frage-und-Antwort-Runde bei der Telefonkonferenz bat ein Finanzanalyst Nvidia-CEO Jensen Huang, auf einen Bericht der Branchenpublikation The Information vom Sonntag einzugehen, in dem die Bedenken einiger Kunden über eine Überhitzung der Blackwell-GPUs in den leistungsstärksten Konfigurationen der Grace Blackwell GB200 NVL72 Rack-Scale-Serverplattform beschrieben wurden. Es wird erwartet, dass der GB200 NVL72 als Grundlage für kommende KI-Flaggschiff-Angebote von Nvidia bei großen OEM- und Cloud-Computing-Partnern wie Dell Technologies, Amazon Web Services, Microsoft Azure, Google Cloud und Oracle Cloud dienen wird.
Als Antwort auf die Frage nach dem Medienbricht über die Überhitzung der Blackwell-GPUs in GB200-NVL72-Systemen merkte Huang an, dass die Blackwell-Produktion zwar "unter Volldampf" stehe und das Unternehmen frühere Umsatzschätzungen übertreffe, dass aber die Zusammenarbeit von Nvidia mit OEM- und Cloud-Computing-Partnern "ziemlich kompliziert" sei.
"Der Grund dafür ist, dass wir zwar den gesamten Stack und die gesamte Infrastruktur bauen, aber den gesamten KI-Supercomputer disaggregieren und in alle kundenspezifischen Rechenzentren und Architekturen auf der ganzen Welt integrieren", sagte der Nvidia-Chef. "Dieser Integrationsprozess ist etwas, das wir nun schon seit mehreren Generationen machen. Wir sind sehr gut darin, aber es gibt immer noch eine Menge, was an diesem Punkt passiert", bliebt der COE eher allgemein.
Huang wies indes darauf hin, dass Dell Technologies mit der Auslieferung seiner GB200 NVL72-Server-Racks an Kunden begonnen habe, darunter der aufstrebende GPU-Cloud-Dienstleister CoreWeave. Er erwähnte auch Blackwell-Systeme, die von Oracle Cloud Infrastructure, Microsoft Azure und Google Cloud eingesetzt werden.
"Aber wie Sie an all den Systemen sehen, die in Betrieb sind, ist Blackwell in bester Verfassung", sagte er. "Wie wir bereits erwähnt haben, ist das Angebot und das, was wir in diesem Quartal absetzen wollen, größer als unsere bisherigen Schätzungen."
Auf die Frage, ob Nvidia in der Lage sei, seine Roadmap für Rechenzentren zu erfüllen, die im letzten Jahr auf eine jährliche Veröffentlichungsfrequenz für GPUs und andere Chips umgestellt wurde, blieb Huang standhaft: Er bestätigte den beschleunigten Produktionsplan.
"Wir haben einen jährlichen Fahrplan und gehen davon aus, dass wir ihn auch weiterhin einhalten werden. Auf diese Weise steigern wir die Leistung unserer Plattform. Aber es ist auch sehr wichtig zu erkennen, dass wir in der Lage sind, die Leistung zu steigern und dies und ein Mehrfaches. Das senkt die Kosten für das Training, die Kosten für die Inferenz und die Kosten für KI und macht unsere Plattform viel zugänglicher", sagte er.
Nvidia hat die Umsatzerwartungen der Wall Street-Analysten um fast 2 Mrd. Dollar und die durchschnittliche Analystenschätzung für den Gewinn pro Aktie um 6 Cent übertroffen. Nvidia-Aktien gingen am Mittwoch mit einem leichten Minus von 0,7 Prozent aus dem US-Handel. Im vorbörslichen Handel am Donnertag an der Nasdaq fielen die Papiere um 3,2 Prozent auf 141,30 US-Dollar.
Der Artikel erschien zuerst bei unserer Schwesterpublikation CRN USA.