Nun verfügbar: Nutanix Enterprise AI mit tiefer Nividia-Integration
Die neue Version Nutanix Enterprise AI (NAI) kommt mit der Integration von Nvidia AI Enterprise, Nvidia NIM Microservices und Nvidia NeMo Framework. Die KI-Plattform soll die Verbreitung generativer KI-Modelle in Unternehmen beschleunigen, zudem das Risiko eines Managements komplexer Workflows klein halten und Kunden jederzeit die Kontrolle über die Plattform ermöglichen.
Wie viele andere Technologieanbieter unterhält auch Nutanix mit Nvidia eine Technologiepartnerschaft, die jetzt noch enger wird. Spezialist für hybrides Multicloud-Computing hat diese Woche die allgemeine Verfügbarkeit von Nutanix Enterprise AI (NAI) bekanntgegeben. Damit will der Anbieter die Einführung generative KI-Anwendungen in Unternehmen vereinfachen und damit beschleunigen. Kunden können Nutanix zufolge Modelle und Inferencing-Dienste am Edge, im Rechenzentrum oder in der Public Cloud auf von der Cloud Native Computing Foundation (CNCF) zertifizierten Kubernetes-Umgebungen erstellen, betreiben und sicher managen.
Die neue Version baut auf dem NAI-Kern auf, der ein zentrales Repository für LLM-Modelle enthält. Damit lassen sich sichere Endpunkte erstellen, welche die Anbindung generativer KI-Anwendungen und -Agenten vereinfachen und schützen.
"Nutanix hilft Kunden dabei, mit der hohen Innovationsrate im GenAI-Markt Schritt zu halten. Wir haben Nutanix Enterprise AI erweitert, um neue Nvidia NIM- und NeMo-Microservices zu integrieren. Dadurch können Unternehmenskunden KI-Agenten umgebungsunabhängig sowie sicher und effizient erstellen, betreiben und managen", erklärt Thomas Cornely, als Senior Vice President zuständigt für das Produkt-Management bei Nutanix.
"Unternehmen benötigten "ausgefeilte Werkzeuge, um Entwicklung und Bereitstellung von Agentic AI in ihren Betriebsabläufen zu vereinfachen", so Justin Boitano, Vice President of Enterprise AI Software Products bei Nividia. NIA biete für Erstellung und Betrieb" leistungsstarker und sicherer KI-Agenten die optimale Basis".
Vier Punkte heben die Technologiepartner besonders hervor:
- Bereitstellung von Agentic-AI-Anwendungen mit Shared-LLM-Endpunkten: Kunden können bereits bestehende und bereitgestellte Modell-Endpunkte als Shared Services für multiple Anwendungen wiederverwenden. Durch die Wiederverwendung von Modell-Endpunkten lässt sich der Bedarf an notwendigen Infrastrukturkomponenten reduzieren. Dazu zählen GPUs, CPUs, Arbeitsspeicher, Datei- und Objektspeicher sowie Kubernetes-Cluster.
- Nutzung einer großen Bandbreite an LLM-Endpunkten: NAI ermöglicht ein großes Spektrum an Agentic-Model-Services einschließlich der Open-Reasoning-Modelle Nivia Llama Nemotron, Nividia NeMo Retriever und NeMo Guardrails. NAI-Anwender können Nvidia AI-Blueprints nutzen. Dabei handelt es sich um vorkonfigurierte und anpassbare Workflows, mit deren Hilfe Kunden unmittelbar mit der Entwicklung ihrer eigenen KI-Anwendungen auf der Basis von Nvidia-Modellen und KI-Microservices loslegen können. Zudem ermöglicht NAI Funktionsaufrufe für Konfiguration und Nutzung externer Datenquellen, damit Agentic-AI-Anwendungen exaktere und detailliertere Ergebnisse liefern können.
- Absicherung von generativer KI: Mithilfe der neuen NAI-Version können Kunden Guardrail-Modelle nutzen und dadurch Agentic-Anwendungen unter Einhaltung der in ihren Unternehmen geltenden Regeln implementieren. Diese Modelle sind in der Lage, ab der ersten Interaktion User-Eingaben und LLM-Antworten zu filtern und dadurch vorurteilsbehaftete oder schädliche Ausgaben zu verhindern. Außerdem ermöglichen sie, die Kontrolle über Themen zu behalten und Jailbreak-Versuche zu entdecken. Nivdia NeMo Guardrails zum Beispiel sind LLM-Modelle für Inhaltsfilterung und erlauben es, unerwünschte Inhalte und andere sensible Themen auszusortieren. Sie lassen sich zudem auf den Bereich Code-Generierung anwenden und ermöglichen dadurch modellübergreifend eine höhere Zuverlässigkeit und Konsistenz.
- Erkenntnissen gewinnen mithilfe Nvidia AI Data Platform: Die Nutanix Cloud Platform baut auf der Referenzarchitektur der Nvidia AI Data Platform auf und integriert Nutanix Unified Storage und Nutanix Database Service für strukturierte und unstrukturierte Daten zur Nutzung durch KI. Die Plattform Nutanix Cloud Infrastructure liefert eine unternehmensinterne Basis für Nvidias Accelerated Computing-, Networking- und KI-Software, um aus Daten verwertbare Erkenntnisse zu gewinnen. Als Nvidia-zertifizierte Enterprise-Storage-Lösung erfüllt Nutanix Unified Storage strikte Leistungs- und Skalierbarkeitsstandard. Mittels Fähigkeiten wie Nvidia GPUDirect Storage bietet Nutanix Unified Storage Unternehmen Software-definierten Enterprise-Storage für KI-Workloads.
Weitere Services können in dem Stack integriert werden. Die Bereitstellung kann auf hyperkonvergenter Infrastruktur (HCI), Bare Metal und Cloud IaaS, erfolgen. NAI-Kunden können ferner die Kubernetes-Plattform von Nutanix für das Flottenmanagement containerisierter Cloud-nativer Anwendungen in der Multicloud sowie Nutanix Unified Storage (NUS) und Nutanix Database Service (NDB) als diskrete Datenservices nutzen. Dadurch entstehe "eine Komplettplattform für Agentic-AI-Anwendungen", sagt Nutanix.
Voller Potenzial generativer KI ausschöpfen, Risiko eines Managements komplexer Workflows klein halten und jederzeit die Kontrolle über die Plattform behalten, sei möglich, so Nutanix.
CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden