CRN-Analyse: Nvidias nächste Dominanz im Netzwerkmarkt gegen Cisco

Der jüngste Meilenstein bei den Netzwerkumsätzen von Nvidia ist ein Zeichen dafür, dass sich die KI-Vorherrschaft des Herstellers zunehmend auf Märkte weit über KI-Chips hinaus ausdehnt. Ciscos Marktführerschaft wankt.

Nvidia-CEO Jensen Huang auf der GTC 2026 diese Woche in San Jose (Foto: Nvidia)

Nvidias Bestrebungen, die wesentlichen Komponenten und Systeme für die KI-Infrastruktur bereitzustellen, erhielten im vergangenen Monat eine wichtige Bestätigung: Das Unternehmen gab bekannt, seinen Jahresumsatz im Netzwerkbereich den von Cisco übertroffen zu haben.

Zwar erwähnte Nvidia-CEO Jensen Huang den Netzwerkmarktführer Cisco in seiner jüngsten Telefonkonferenz zum Geschäftsergebnis nicht namentlich, doch wiederholte er einen Punkt, den das Unternehmen bereits in seiner Präsentation zum vierten Quartal hervorgehoben hatte: "Nvidia ist das weltweit größte Netzwerkunternehmen".

Grundlage hierfür war, dass der Netzwerkumsatz im Rechenzentrumsgeschäft von Nvidia im Geschäftsjahr 2026 (Ende Januar) 31 Milliarden US-Dollar erreichte, was einem Anstieg von 142 Prozent gegenüber dem Vorjahr entspricht. Er war zudem "mehr als zehnmal so hoch" wie zu dem Zeitpunkt, als Nvidia im Jahr 2020 mit Mellanox Technologies erwarb und somit in das Netzwerkgeschäft einstieg.

Im Vergleich: Cisco erzielte im Geschäftsjahr 2025 (Ende Juli) in seiner Netzwerksparte einen Umsatz von 28 Mrd. Dollar. Und selbst in den jüngsten Quartalen, die gerade zu Ende gingen, erzielte Nvidia im Netzwerkbereich fast 3 Mrd. Dollar mehr als Cisco.

Das ist ein Zeichen dafür, wie sich Nvidias Dominanz auf dem Markt für KI-Infrastruktur – auf dem Hyperscaler in diesem Jahr voraussichtlich fast 700 Mrd. Dollar ausgeben werden – zunehmend weit über KI-Chips hinaus auf andere Produktkategorien ausweitet, in denen das Unternehmen vor zehn Jahren noch nicht vertreten war. Dies wiederum bringt Nvidia in einen direkteren Wettbewerb mit einer wachsenden Zahl von Unternehmen, darunter auch solche, die es als Partner betrachtet: Cisco beispielsweise.

Was Nvidias Netzwerkgeschäft antreibt

Was Nvidias Netzwerkumsatz im vierten Quartal antrieb, war eine "fortgesetzte Steigerung" seiner NVLink-Compute-Fabric für die Rack-Scale-Plattformen Grace Blackwell GB200 und GB300 sowie das Wachstum von Nvidias Spectrum-X-Ethernet- und Quantum-InfiniBand-Netzwerkplattformen. "Die Erfindung von NVLink hat unserem Netzwerkgeschäft einen enormen Schub gegeben. Jedes Rack verfügt über neun Switch-Knoten, und jeder davon enthält zwei Chips – in Zukunft werden es noch mehr sein. Die Menge an Switching, die wir pro Rack durchführen, ist unglaublich", sagte Huang am 25. Februar bei der Telefonkonferenz zum vierten Quartal.

"Wir sind mittlerweile auch das größte Netzwerkunternehmen der Welt. Was Ethernet betrifft, so sind wir vor etwa zwei Jahren in den Ethernet-Markt eingestiegen, genauer gesagt in den Bereich der Ethernet-Switches. Und ich denke, dass wir heute wahrscheinlich das größte Ethernet-Netzwerkunternehmen der Welt sind oder es sicher bald sein werden. Spectrum-X Ethernet war ein Volltreffer für uns", fügte der Nvidia-CEO hinzu.

Nvidias Vorstoß in die vertikale Integration - angetrieben durch "Extreme Co-Design"

Nvidia expandiert in Bereiche wie Netzwerke und CPUs, da der Chiphersteller der Ansicht ist, dass diese Technologien gemeinsam entwickelt werden müssen, um Computer im Rechenzentrumsmaßstab bereitzustellen, die die schnellste und effizienteste Leistung für KI-Workloads bieten. Nvidia bezeichnet diesen Grad an vertikaler Integration als "Extreme Co-Desig".

"In jeder einzelnen Generation sind wir bestrebt, um ein Vielfaches höhere Leistung pro Watt und Leistung pro Dollar zu liefern. Dieses Tempo sowie unsere Fähigkeit zum Extreme Co-Design ermöglichen es uns, den Nutzen an die Kunden weiterzugeben - und das ist das Allerwichtigste, wenn es um den von uns gelieferten Mehrwert geht", sagte Huang.

Nvidia verschärft den Wettbewerb gegen Intel und AMD

Selbst mit diesem Vorstoß in Richtung "Extreme Co-Design" verzeichnet Nvidia nun echtes Interesse an seinen CPUs als eigenständiges Angebot, was eine größere Bedrohung für Intel und AMD signalisiert. Während sich das Unternehmen bislang weitgehend darauf konzentriert hat, CPUs zusammen mit GPUs in maßgeschneiderte Server-Tray-Designs für Rack-Scale-Plattformen wie das GB300 zu integrieren, gab Nvidia kürzlich Vereinbarungen mit dem Neocloud-Anbieter CoreWeave und dem Hyperscaler Meta bekannt, um eine eigenständige Version seiner kommenden Vera-CPU für deren Rechenzentren zu liefern.

Zur Erläuterung von Nvidias sich wandelnder Sichtweise auf CPUs im Rechenzentrum sagte Huang, dass das Unternehmen den Bedarf an einem eigenständigen Angebot sehe, da KI-Anwendungen nun lernen, Tools zu nutzen, von denen viele in reinen CPU-Rechenumgebungen laufen. Gleichzeitig könnten andere Tools in Umgebungen laufen, die von CPUs und GPUs angetrieben werden, fügte er hinzu.

"Vera wurde als hervorragende CPU für die Nachbearbeitung konzipiert. Einige der Anwendungsfälle in der gesamten Pipeline der künstlichen Intelligenz erfordern den Einsatz vieler CPUs", sagte er.

Nvidia findet einen neuen Weg, um beschleunigtes Rechnen zu fördern

Während Nvidias Ambitionen Intel und AMD unter Druck setzen, findet das Unternehmen auch neue Wege, um seine Fähigkeiten im Bereich der Beschleunigerchips – wo Nvidia gegen traditionelle Rivalen, Start-ups und Hyperscaler antritt – unter Beweis zu stellen: Kürzlich meldete Nvidia den Abschluss eines nicht-exklusiven Lizenzvertrag mit dem KI-Chip-Entwickler Groq, der Berichten zufolge einen Wert von 20 Milliarden US-Dollar haben soll. Im Rahmen des Deals stellte Nvidia Mitglieder des Groq-Teams ein, darunter Mitbegründer und CEO Jonathan Ross, um die Inferenztechnologie von Groq in die Nvidia-Angebote zu integrieren.

"Wie schon bei Mellanox werden wir die Nvidia-Architektur um die Innovationen von Groq erweitern, um neue Dimensionen bei KI-Infrastruktur, Leistung und Wert zu ermöglichen", sagte Huang.

Huang verweist auf "exponentielles" Wachstum bei Compute-Nachfrage

Nvidia sieht sich einer größeren Bedrohung durch Wettbewerber gegenüber als in den vergangenen Jahren. Man denke nur an den Deal von AMD, Meta mit 6 Gigawatt KI-Infrastruktur auf Basis seiner Instinct-GPUs zu beliefern. Oder an den anhaltenden Erfolg der hauseigenen KI-Chip-Entwicklungen von Amazon Web Services oder Google.

Dennoch strahlten Huang und seine CFO Collete Kress, viel Zuversicht aus, was die Erwartungen des Unternehmens an weiteres Wachstum und seine Marktführerschaft angeht, die es mit einem großen Forschungs- und Entwicklungsbudget sowie einer prall gefüllten Kasse antreibt, die es für Investitionen in Unternehmen jeder Größe nutzt.

"Unser Innovationstempo ist, insbesondere bei unserer Größe, unübertroffen – angetrieben durch ein jährliches F&E-Budget von fast 20 Milliarden US-Dollar und unsere Fähigkeit zu extremem Co-Design über Rechen- und Netzwerkbereiche hinweg, über Chips, Systeme, Algorithmen und Software hinweg", so Kress während der Telefonkonferenz.

Als ein Finanzanalyst fragte, ob Nvidia zuversichtlich sei, dass Hyperscaler, einschließlich Cloud-Dienstleister, ihre Investitionen in KI-Infrastruktur über dieses Jahr hinaus weiter steigern würden, sagte Huang, er sei "zuversichtlich, dass ihr Cashflow wachsen wird".

Der Grund dafür sei "ganz einfach", so Nvidias CEO: "Wir haben nun den Wendepunkt der agentenbasierten KI und den Nutzen von Agenten weltweit und in Unternehmen überall erlebt. Dadurch entsteht eine unglaubliche Nachfrage nach Rechenleistung. In dieser neuen Welt der KI bedeutet Rechenleistung Umsatz. Ohne Rechenleistung lassen sich keine Token generieren. Ohne Token lässt sich kein Umsatz steigern. In dieser neuen KI-Welt ist Rechenleistung also gleichbedeutend mit Umsatz."

Nvidia hat am Montag dieser Woche auf seiner GTC 2026-Veranstaltung in San Jose, Kalifornien, ein erweitertes Angebot vorgestellt und dargelegt, wie es diese neue Phase der Nachfrage weiterhin bedienen wird. "Die Anzahl der generierten Token ist exponentiell gestiegen, und daher müssen wir mit viel höherer Geschwindigkeit Inferenzberechnungen durchführen", sagte Huang.

Der Artikel erschien zuerst bei unserer Schwesterpublikation crn.com.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden