Vast Data setzt der Speicherkrise "Amplify" entgegen

Mit seinem neuen "Amplify"-Programm für das hauseigene KI-OS verspricht Vast Data eine Vergrößerung von Speicherkapazitäten um teils mehr als das Fünffache – allein durch eine effizientere Nutzung der bereits vorhandenen Infrastruktur und Ressourcen wie SSDs in der DASE-Architektur.

(Foto: Vast Data)

Der Siegeszug der KI lässt den Datenhunger und damit den Bedarf an Speicherplatz in Unternehmen rapide ansteigen. Mit dem Skalieren ihrer Projekte vom Trainingsstatus in Richtung Inferenzanwendungen mit höherem Datenvolumen verfolgen viele Unternehmen den Ansatz, Inferenzergebnisse zu speichern und wiederzuverwenden, einschließlich der Zwischenspeicherung von Schlüsselwerten (Key Values). Gleichzeitig ist der dafür benötigte Speicher aufgrund der Komponentenkrise derzeit jedoch knapp und teuer, was Kapazitätsplanungen erschwert und den ROI entsprechender Erweiterungen drückt. Ein Problem, das viele Dienstleister und Systemhäuser doppelt betrifft. Sowohl bei der eigenen Infrastruktur als auch bei ihren Kunden, die Projekte reduzieren oder aufschieben und teils wenig Verständnis für die Lieferengpässe und Preisentwicklung haben.

Einen einfachen Ausweg aus diesem Dilemma verspricht Vast Data mit seinem neuen Programm zur Optimierung von Speicherkapazitäten, "Vast Amplify". Dieses soll Unternehmen, Hostinganbietern und Dienstleistern helfen, in ihrer Infrastruktur vorhandene ungenutzte Flashspeicherkapazitäten zu ermitteln sowie vorhandene Hardware für die Wiederverwendung zu qualifizieren und die dabei ausgemachten freien Kapazitäten mit der einheitlichen Disaggregated Shared Everything (DASE)-Architektur des Vast AI Operating System zu konsolidieren und nutzbar zu machen.

Je nach den Eigenschaften der genutzten Workloads und der IT- und Storage-Umgebung verspricht der Anbieter des KI-Betriebssystems dadurch eine bis zu sechsmal so große effektiv nutzbare Kapazität. Erreicht wird das laut dem Anbieter, indem Ineffizienzen in der Architektur moderner Datenplattformen aufgedeckt und behoben werden. Als Beispiele nennt Vast hier etwa replikationslastige Sicherungsmodelle, fragmentierte Datenstacks und auf der Überprovisionierung von Flash-Speichern basierende Ansätze zur Leistungsoptimierung. Indem Amplify diese adressiert und die damit einhergehenden Einschränkungen auflöst, soll es den Flaschenhals der Speicherbeschaffung und -zuteilung beseitigen.

"Speicherknappheit zwingt Unternehmen zu unmöglichen Kompromissen – sie müssen Projekte aufschieben, vorhandene Kapazitäten rationieren oder jede verfügbare Zuteilung akzeptieren", fasst Phil Manez, Vice President, GTM Execution bei VAST Data, zusammen. "Mit VAST Amplify verschaffen wir Kunden eine praktische Alternative: Sie können die Flashspeicher nutzen, die sie bereits haben, sie in einer modernen Architektur konsolidieren und die verfügbare nutzbare Kapazität und Leistung für ihre Geschäftstätigkeit deutlich steigern."

Messbare und skalierbare Effizienzgewinne in allen Projektphasen

Um die Kunden individuell auf ihrem jeweiligen operativen und technischen Stand abholen zu können, setzt Vast bei Amplify-Projekten auf einen mehrstufigen Plan, bei dem jede Phase auf messbare und skalierbare Effizienzgewinne abzielt. Zuerst werden im Rahmen der Estate Intelligence die Umgebungen und die darin vorhandenen Assets analysiert. Neben direkt erkennbaren ungenutzten SSD-Kapazitäten geht es dabei auch um die Identifizierung weiterer Optimierungsmöglichkeiten, etwa hinsichtlich durch Silos bedingter Fragmentierungen und architekturbedingt suboptimaler Auslastungsgrade. Dabei beschleunigt Amplify die Qualifizierung bestehender Server- und SSD-Konfigurationen. So können die Kunden bestehende Flash-Speicher wiederverwenden und in einer einheitlichen Umgebung konsolidieren, um unabhängiger von neuen Zuteilungen und langen Bestellzeiten zu werden.

Vast verspricht effizientere Nutzung des vorhandenen Speichers

Anschließend ist die Speicherkapazität laut Vast weltweit verfügbar, lässt sich dynamisch zuweisen und wird nicht länger durch Servergrenzen und veraltete Designs eingeschränkt. Um dabei neben der vergrößerten Kapazität auch eine maximale Datenbeständigkeit und Skalierbarkeit zu erreichen, werden die Daten statt der üblichen replikationslastigen Ansätze mittels hocheffizienten Erasure-Codings auf Plattformebene durchgängig geschützt. Durch eine kontinuierliche Datenreduktion im gesamten Namensraum werden redundante Muster über die Grenzen einzelner Laufwerke hinweg beseitigt, sodass weitere Kapazitäten im Bestand freigegeben und erhalten werden.

Im laufenden Betrieb werden zufällige und stoßweise anfallende Schreibvorgänge zunächst im Storage Class Memory (SCM) abgefedert und von dort effizient in größeren Segmenten sequenziell auf SSDs geschrieben. Durch diese SCM-optimierte Schreibarchitektur wird die typische Vervielfachung von Schreibvorgängen reduziert, was Latenzen und den Bedarf an Überprovisionierung verringert und gleichzeitig die Leistung und Lebensdauer der Speichermedien verbessert. In Kombination kann all das zu einer bis zu sechs Mal höheren effektiven Kapazität führen, verspricht der Hersteller.

Praxisbeispiele: Mehr Speicher, weniger Daten

(Foto: Vast Data)

Zum Beleg führt Vast einige Kundenbeispiele aus der Praxis auf. Demnach soll Amplify einem Hersteller von Elektrofahrzeugen etwa eine Datenreduktion im Verhältnis von 2,8 zu 1 ermöglicht haben, kombiniert mit einer um den Faktor 2,91 höheren Effizienz gegenüber redundanter Datenreplikation. Die nutzbare Kapazität für Data-Lake- und KI-Workloads soll dabei knapp um den Faktor gesteigert worden sein. Bei einem Neo-Cloud-Service-Provider, der KI-Trainingsumgebungen für Modellentwickler hostet, verzeichnete Vast eine konsistente Datenreduktion im Verhältnis von 2 zu 1. Noch eine Stufe größer war der Effekt bei einem Anbieter autonomer Fahrzeuge, der bei seinen KI-Trainingsdaten eine Reduktion im Verhältnis von 5,5 zu 1 erreichen konnte. Ähnliches gelang bei einem Wireless-Telekommunikationsunternehmen, das seine ORC-Daten bereits vorkomprimiert speichert. Dennoch konnte hier laut Vast allein durch die Eliminierung der redundanten Datenreplikation für Datenanalysen eine Netto-Kapazitätsverbesserung um den Faktor 4,28 erzielt werden.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden