18 Highlights von der Supercomputing 2025

Auf der diesjährigen Supercomputing 2025 wurde eine breite Palette an Speicher-, Server- und anderen Infrastrukturtechnologien für Rechenzentren vorgestellt. CRN stellt 18 Highlights vor, die Unternehmen dabei helfen sollen, sich auf leistungsstärkere KI- und Hochleistungsrechner-Workloads vorzubereiten.

(Foto: Lillie Elliot, SC Photography)

Es war eine geschäftige Woche rund um die diesjährige "Supercomputing 2025" in St. Louis. Die Konferenz brachte eine Vielzahl von Fachleuten aus der Branche zusammen, um sich über die neuesten Hardware- und Softwareangebote für die boomenden Märkte der künstlichen Intelligenz und des Hochleistungsrechnens (HPC) zu informieren und auszutauschen. Unter den mehreren hundert Ausstellern waren kleine Distributoren ebenso vertreten wie Softwareanbieter, große Hardwarehersteller, wichtige Universitäten und sogar Regierungsorganisationen, die neue Technologien für Computing-Infrastrukturen der nächsten Generation vorstellten.

Und dann waren da noch die Produkte. Die Aussteller präsentierten eine breite Palette von Angeboten, von kleinsten ICs und SSDs über Supercomputer bis hin zu leistungsstarken Clouds. Auf der Supercomputing 2025 gab es also viel interessantes zu sehen und zu hören, das für den laufenden Aufbau der KI-Infrastrukturen hohe Relevanz hat.

Für alle, die nicht dabei sein konnten, stellt CRN auf den folgenden Seiten 18 Highlights aus den Messehallen vor, darunter:

(Foto: Supermicro)

Luftgekühlter 10U-GPU-Server von Supermicro

Der in San Jose, Kalifornien, ansässige Hardwarehersteller Supermicro stellte auf der Supercomputing 2025 seinen neuen luftgekühlten 10U-GPU-Server vor. Das Modell "AS A126GS-TNMR" ist mit acht AMD Instinct MI355X-GPUs ausgestattet. Das System nutzt das branchenübliche OCP Accelerator Module (OAM) und bietet 288 GB HBM3e-Speicher pro GPU sowie eine Bandbreite von 8 TBps.

Die MI355X-GPUs steigern die GPU-Leistung von 1.000 W TDP auf 1.400 W TDP und erzielen damit eine zweistellige Leistungssteigerung im Vergleich zum luftgekühlten 8U-MI350X-System, wodurch die Datenverarbeitungsleistung verbessert wird. Mit der neuen 10U-Option, die das Angebot an AMD MI355X-basierten GPU-Servern von Supermicro ergänzt, können Kunden laut Angaben des Unternehmens sowohl bei luftgekühlten als auch bei flüssigkeitsgekühlten Infrastrukturen in großem Maßstab eine höhere Leistung pro Rack erzielen.

(Foto: Broadcom)

Broadcom Thor Ultra

Broadcom stellte auf der Supercomputing 2025 sein Produkt Thor Ultra vor. Laut Angaben des Entwicklers von Halbleiter- und Infrastruktur-Softwarelösungen ist es die branchenweit erste 800G-AI-Ethernet-Netzwerkkarte (NIC), die Hunderttausende von XPUs miteinander verbinden kann, um AI-Workloads mit Billionen von Parametern zu bewältigen. Durch die Übernahme der offenen Ultra Ethernet Consortium (UEC)-Spezifikation ermögliche Thor Ultra seinen Nutzern die Skalierung von KI-Workloads mit einer beispiellosen Leistung und Effizienz in einem offenen Ökosystem, verspricht der Hersteller aus dem kalifornischen Palo Alto.

(Foto: DataCore)

DataCore Nexus

DataCore Nexus bietet ein leistungsstarkes, softwaredefiniertes paralleles Dateisystem mit extrem geringer Latenz und hohem Durchsatz von bis zu 180 GBps in einer 4U-Bauweise für anspruchsvolle HPC- und KI-Workloads. Es basiert zum Teil auf der Technologie des in diesem Jahr von DataCore übernommenen Anbieters AcraStream, um Hochgeschwindigkeits-InfiniBand-Fabrics und Nvidia GPUDirect für direkte Datenpfade mit geringem Overhead zu nutzen, und beschleunigt Rechenpipelines in großem Maßstab.

Nexus bietet intelligente, richtliniengesteuerte Datenorchestrierung über Scratch-, Projekt-/Home-Verzeichnisse, S3-Archiv- und Cloud-Ebenen hinweg und bietet einen einheitlichen globalen Namensraum mit Multi-Protokoll-Zugriff (POSIX, NFS, SMB, S3). Durch die Konsolidierung von Silos und die Automatisierung der Datenbewegung trägt Nexus dazu bei, die Zeit bis zum Ergebnis zu verkürzen, die Verwaltung zu vereinfachen und eine globale Zusammenarbeit zu ermöglichen, während gleichzeitig sichergestellt wird, dass die Daten unabhängig von ihrem Speicherort zugänglich bleiben.

(Foto: HPE)

HPE Cray Supercomputing GX5000

Der HPE Cray Supercomputing GX5000 ist ein Supercomputing-System der nächsten Generation, das speziell für das Zeitalter der künstlichen Intelligenz entwickelt wurde. Das System bietet drei Multi-Partner- und Multi-Workload-Compute-Blade-Optionen für branchenführende Dichte, die einheitliche HPE Supercomputing Management Software für Multitenancy und HPE Slingshot 400, das für die Leistung unter großen KI-Workloads ausgelegt ist.

Ergänzt wird es durch das laut HPE branchenweit erste werkseitig gefertigte Speichersystem mit integrierter Open-Source-Software Distributed Asynchronous Object Storage (DAOS): Das HPE Cray Supercomputing Storage Systems K3000, mit dem Supercomputing-Kunden I/O-gebundene KI-Anwendungen mit höherer Produktivität ausführen können.

(Foto: Vdura)

Vdura Data Platform V12

Die Vdura Data Platform V12 wurde entwickelt, um die Skalierbarkeit und Ausfallsicherheit von KI- und HPC-Umgebungen zu verbessern. V12 führt eine Elastic Metadata Engine ein, die linear über Knoten skaliert und so Metadatenoperationen um bis zu 20-mal beschleunigt. Die neue Snapshot-Unterstützung ermöglicht sofortige, platzsparende Kopien von Datensätzen für Pipelines, Checkpoints und Wiederherstellungen. Die optimierte Integration mit SMR-HDDs ermöglicht eine um bis zu 30 Prozent höhere Speicherkapazität pro Rack bei gleichbleibendem Durchsatz.

Aufbauend auf V11 bietet V12 laut Hersteller eine um über 20 Prozent höhere Gesamtleistung, reduziert die Kosten pro Terabyte um 20 Prozent und vereinfacht den Datenschutz. Die allgemeine Verfügbarkeit ist für das zweite Quartal 2026 mit nahtlosen In-Place-Upgrades geplant.

(Foto: Hammerspace)

Hammerspace v5.2

Hammerspace v5.2 bietet wichtige Verbesserungen in Bezug auf Leistung, Sicherheit und Ökosystem, die Unternehmen dabei helfen, KI- und Hochleistungs-Workloads in lokalen, hybriden und Cloud-Umgebungen zu vereinheitlichen, automatisieren und beschleunigen. Das in Redwood City, Kalifornien, ansässige Unternehmen sagt, dass die neue Version die Messlatte für die Leistung standardbasierter paralleler Dateisysteme höher legt, insbesondere für KI- und HPC-Workloads.

Ein wichtiger Faktor ist der kontinuierliche Beitrag von Hammerspace zur Verbesserung der clientseitigen NFS-Leistung des Upstream-Linux-Kernels, der speziell für die Beschleunigung anspruchsvoller Workloads entwickelt wurde. Durch die enge Integration seiner Software mit diesen Kernel-Verbesserungen bietet Hammerspace laut eigenen Angaben dramatische Leistungssteigerungen, ohne dass proprietäre Client-Installationen erforderlich sind oder Daten in von Anbietern kontrollierten Silos gesperrt werden, was echte Flexibilität und Skalierbarkeit für moderne KI-Initiativen ermöglicht.

(Foto: Hitachi Vantara)

Hitachi Vantara VSP One Block High End (BHE)

Hitachi Vantara aus Santa Clara, Kalifornien, nutzte die Supercomputing 2025, um seine VSP One-Familie um VSP One Block High-End zu erweitern, eine Datenplattform der nächsten Generation, die auf Leistung und Ausfallsicherheit ausgelegt ist. Mit bis zu 50 Millionen IOPS, 60 TB NVMe-SSDs und zukunftsfähiger 100-Gbit-TCP/64G-FC-Konnektivität vereint sie High-End-Block-Workloads über offene Systeme, Mainframes und Hybrid-Clouds hinweg.

VSP One BHE bietet 100-prozentige Datenverfügbarkeit, unveränderliche Snapshots, FIPS 140-3-Konformität und saubere Cyber-Wiederherstellung innerhalb von Sekunden. Mit dynamischer CO2-Reduzierung für geringere CO2-Emissionen, einer 4:1-Datenreduktionsgarantie und einheitlichem AIOps-gesteuertem Management über VSP 360 bietet sie eine skalierbare, sichere und energieeffiziente Datenbasis für das KI-Zeitalter.

(Foto: Quantinuum)

Quantinuum Helios

Der Helios-Quantencomputer von Quantinuum wurde entwickelt, um die Einführung von Quantencomputern in Unternehmen zu beschleunigen. Mit der laut Quantinuum höchsten Genauigkeit aller kommerziellen Systeme und einer Echtzeit-Steuerungsengine ermöglicht Helios Entwicklern, einen Quantencomputer auf ähnliche Weise zu programmieren wie klassische Computer.

Der Hersteller mit Sitz in Broomfield, Colorado, vertieft seine Partnerschaft mit Nvidia und kombiniert seine Systeme mit Nvidia-GPUs und neuen Integrationen mit GB200, NVQLink, CUDA-Q und Guppy, um das hybride Quanten-KI-Computing voranzutreiben. Ein Nvidia-GPU-basierter Decoder in Helios zeigte eine Verbesserung der logischen Genauigkeit um 3 Prozent, und ein neuer GenQAI-Workflow erzielte eine 234-fache Beschleunigung bei der Generierung komplexer Molekül-Trainingsdaten.

(Foto: DDN)

Pure Storage FlashBlade EXA//

Das FlashBlade//EXA von Pure Storage ist voll auf die Anforderungen von KI und HPC ausgerichtet. Es bietet multidimensionale Leistung mit massiv paralleler Verarbeitung und skalierbaren Metadaten-IOPS zur Unterstützung hoher Geschwindigkeitsanforderungen der KI mit einer Leistung von mehr als 10 Terabyte pro Sekunde in einem einzigen Namespace.

Die Plattform des kalifornischen Herstellers trägt auch dazu bei, Metadaten-Engpässe zu beseitigen, indem sie eine hohe Metadaten-Leistung, Verfügbarkeit und Ausfallsicherheit für massive KI-Datensätze bietet, ohne dass eine manuelle Abstimmung oder zusätzliche Konfiguration erforderlich ist. Die konfigurierbare und disaggregierte Architektur verwendet branchenübliche Protokolle, darunter Nvidia ConnectX-NICs, Spectrum-Switches, LinkX-Kabel und beschleunigte Kommunikationsbibliotheken.

(Foto: DDN)

DDN Sovereign AI Blueprints

Das in Chatsworth, Kalifornien, ansässige Unternehmen DDN hat Sovereign AI Blueprints und Nvidia Reference Designs vorgestellt, die validierte, produktionsreife Architekturen für KI auf nationaler und Unternehmensebene bieten. Diese Technologien basieren auf der einheitlichen Datenintelligenzplattform von DDN und den Referenzdesigns der Nvidia AI Data Platform und gewährleisten, dass die Infrastruktur von Grund auf souverän, energieeffizient und nachhaltig ist. Zertifizierte Architekturen ermöglichen eine GPU-Auslastung von über 99 Prozent, erweiterte Sicherheit und vorhersagbare Leistung für Trainings-, Inferenz- und RAG-Workloads.

DDNs Sovereign AI hat sich in Implementierungen wie Indiens Yotta Shakti Cloud und Singtel bewährt und bietet Regierungen und Unternehmen ein wiederholbares Framework zur Datenkontrolle, zur Erfüllung von Compliance-Anforderungen, zur Effizienzoptimierung und zur Skalierung von KI mit Vertrauen und Betriebssicherheit.

(Foto: Dell)

Dell AI Factory

Dell Technologies hat grundlegende Verbesserungen an der Dell AI Factory vorgestellt, die die Einführung von KI in Unternehmen vereinfachen und beschleunigen sollen. Aktualisierungen der Dell Automation Platform optimieren die Bereitstellung in Unternehmen für sicheren, wiederholbaren Erfolg; Datenmanagement-Lösungen optimieren die Leistung und beschleunigen die Entscheidungsfindung; verbesserte Dell PowerEdge-Server bieten schnelleres Training und skalierbare Rechenleistung; fortschrittliche Netzwerklösungen tragen zur Förderung von KI in großem Maßstab bei; und die Ergänzungen der Integrated Rack Scalable Solutions von Dell bieten eine widerstandsfähige, intelligentere Infrastruktur für mehr Kontrolle.

Mit schlüsselfertigen KI-Anwendungsfall-Pilotprojekten und einer robusten Infrastruktur hilft die Dell AI Factory Unternehmen dabei, das volle Potenzial der KI auszuschöpfen, Innovationen voranzutreiben und messbaren Geschäftswert in allen Branchen zu erzielen.

(Foto: IBM)

IBM Storage Scale System 6000

IBM, nutzte die Supercomputing 2025, um sein aktualisiertes IBM Storage Scale System 6000 mit einer dreifachen maximalen Kapazität von 47 Petabyte pro Rack vorzustellen. Dies wurde durch die Unterstützung von QLC-Flash-Speichern nach Industriestandard in SSD-Konfigurationen mit 30 TB, 60 TB und 122 TB erreicht, um Kunden mehr Datenspeicheroptionen für ihre Anforderungen zu bieten.

Darüber hinaus stellte der Konzern aus Armonk (N.Y.) das IBM Scale System All-Flash Expansion Enclosure vor, das für hochleistungsfähiges KI-Training, Dateninferenz, HPC und datenintensive Workloads optimiert ist. Mit der Einführung von 122-TB-QLC-NVMe-SSDs bietet das verbesserte Storage Scale System 6000 mit dem All-Flash Expansion Enclosure über 47 Petabyte kostengünstige Flash-Kapazität mit hoher Dichte in einem einzigen 42U-Rack.

(Foto: SanDisk)

Sandisk UltraQLC 256 TB NVMe SSD

Die Sandisk UltraQLC 256 TB NVMe SSD ist für Hyperscale-Flash-Speichersysteme ausgelegt. Die SSDs wurden speziell für schnelle, intelligente Data Lakes entwickelt, die KI in großem Maßstab unterstützen. Sie basieren auf der neuen UltraQLC-Plattform von Sandisk für Unternehmen und kombinieren BiCS8 QLC CBA NAND, maßgeschneiderte Controller und fortschrittliche Systemoptimierungen, um eine geringere Latenz, eine höhere Bandbreite und eine größere Zuverlässigkeit als frühere Modelle zu bieten. Diese Errungenschaft in der NAND-Architektur unterstreicht die Fähigkeit von Sandisk, die Leistung und Effizienz für KI-gesteuerte, datenintensive Umgebungen zu skalieren. Die Sandisk UltraQLC 256 TB NVMe SSDs sollen in der ersten Hälfte des Jahres 2026 im U.2-Formfaktor erhältlich sein, weitere Formfaktoren werden im Laufe des Jahres folgen.

(Foto: Quantum)

Quantum ActiveScale Ranged Restore

Zu den jüngsten Verbesserungen von ActiveScale des in Centennial, Colorado, ansässigen Unternehmens Quantum gehört die Funktion "Ranged Restore". Eine laut Hersteller branchenweit einzigartige Funktion, mit der Unternehmen bestimmte Byte-Bereiche aus großen Objekten abrufen können, die in Archivierungsebenen der Glacier-Klasse gespeichert sind. Die erasure-codierte Object-on-Tape-Architektur macht eine vollständige Wiederherstellung der Datei überflüssig und trägt so dazu bei, die Abrufzeiten, die Ausgabekosten und die gesamte Rechenleistung zu reduzieren.

Diese Version bietet außerdem eine mehr als fünfmal schnellere Leistung bei der Wiederherstellung kleiner Objekte, die durch eine neu gestaltete Wiederherstellungs-Engine erreicht wird, die Abrufanfragen intelligent bündelt und sortiert. Die Verbesserungen von Ranged Restore liefern reaktionsschnelle, abfragefähige Data Lakes, die für hohe Anforderungen im Exabyte-Bereich optimiert sind und sowohl für KI- als auch für Analyse-Workflows von entscheidender Bedeutung sind.

(Foto: Weka)

Weka Next Generation WEKApod

Weka nutzte die Supercomputing 2025, um die nächste Generation seiner WEKApod-Appliances vorzustellen. Diese abzielen darauf ab, den traditionellen Kompromiss zwischen Leistung und Kosten auf den Kopf zu stellen. Die komplett überarbeitete WEKApod Prime-Appliance erzielt durch AlloyFlash, eine neue Funktion in NeuralMesh, die Daten intelligent auf leistungsstarken TLC- und kapazitätsstarken eTLC-Laufwerken im selben System verteilt, eine um 65 Prozent bessere Preis-Leistungs-Bilanz als frühere Modelle.

Dabei verspricht das kalifornische Unternehmen seinen Kunden die für KI-Workloads erforderliche Leistung zu einem sinnvollen Preis bereitzustellen. WEKApod Nitro verdoppelt die Leistungsdichte mit aktualisierter Hardware und ermöglicht es Unternehmen, KI- und HPC-Innovationen zu beschleunigen, die GPU-Auslastung zu maximieren und mehr Kunden zu bedienen. Durch sein Design mit höherer Dichte eignet es sich ideal für große Objektspeicher-Repositorys und KI-Data-Lakes, die kompromisslose Leistung erfordern.

(Foto: MinIO)

MinIO ExaPOD

ExaPOD ist die modulare Referenzarchitektur von MinIO für den Aufbau und Betrieb groß angelegter KI-Systeme. Sie integriert Supermicro-Plattformen mit hoher Dichte, Intel Xeon 6-Prozessoren und Solidigm-Enterprise-SSDs mit der MinIO AIStor-Software, um eine zuverlässige Datenleistung mit geringer Latenz für KI-Training und -Inferenz zu bieten. Mit ExaPOD will der Hersteller aus Redwood City (Kalifornien) Hardware und softwaredefinierten Speicher in einem ausgewogenen, wiederholbaren System vereinen, das sich nahtlos über Racks und Rechenzentren hinweg skalieren lässt.

ExaPOD bietet eine enorme, umfassende nutzbare Kapazität von 36 Petabyte pro Rack-Einheit, um den Platzbedarf im Rechenzentrum zu minimieren, und verbraucht dabei durchschnittlich 900 W Strom pro Petabyte nutzbarer Kapazität (einschließlich Kühlung), um maximale Leistungsressourcen für GPU-Berechnungen freizusetzen.

(Foto: Western Digital)

JBOD-Plattformen von Western Digital

Western Digital präsentierte auf der Supercomputing 2025 Speichertechnologien der nächsten Generation für KI und HPC und demonstrierte, wie seine Speicherplattformen dazu beitragen, Leistungsengpässe zu beseitigen und den Zugang zu Speichern mit hoher Kapazität zu demokratisieren. Zu den wichtigsten Innovationen zählen die Erweiterung der UltraSMR-Technologie über Hyperscaler hinaus und reale Szenarien für die Leistung von disaggregierten Speichern mit OpenFlex Data24.

Das erweiterte Open Composable Compatibility Lab-Ökosystem von Western Digital umfasst neue Partner und ermöglicht herstellerneutrale, vorab validierte Lösungen. Western Digital zufolge bietet sein Ansatz überlegene Kapazitätsökonomie, flexible Skalierbarkeit und reduzierte Gesamtbetriebskosten für Unternehmen, die KI- und HPC-Workloads in beliebiger Größenordnung einsetzen.

(Foto: MSI)

MSI ORv3 Rack-System

Der taiwanesische Entwickler von Hochleistungsservern MSI nutzte die Supercomputing 2025, um sein ORv3-Rack-Angebot und ein umfassendes Portfolio an energieeffizienten, Multi-Node- und zusätzlichen KI-optimierten Plattformen vorzustellen. Sie basieren auf Nvidia MGX und Desktop-Nvidia DGX und wurden speziell für Umgebungen mit hoher Dichte und unternehmenskritische Workloads entwickelt. Das 21-Zoll-44U-Rack ORv3 von MSI ist ein vollständig validiertes, integriertes Angebot, das Stromversorgungs-, Kühlungs- und Netzwerksysteme kombiniert, um die Technik zu optimieren und die Bereitstellung in Hyperscale-Umgebungen zu beschleunigen. Das Rack verfügt über 16 CD281-S4051-X2 2U DC-MHS-Server und nutzt zentralisierte 48-V-Stromversorgungseinheiten und frontseitige E/A-Anschlüsse, wodurch der Platz für CPUs, Speicher und Speicherkapazität maximiert wird, während gleichzeitig ein optimaler Luftstrom aufrechterhalten und die Wartung vereinfacht wird. Die DC-MHS-Server sind entweder mit AMD EPYC 9005-Prozessoren oder Intel Xeon 6-Prozessoren ausgestattet.

Dieser Artikel erschien zuerst bei unserer Schwesterpublikation crn.com. Alle Angaben zu den Produkten basieren auf Herstellerinformationen.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden