Lenovo und Nvidia entwickeln gemeinsame Lösungen für Hybride KI
Die erweiterte Allianz werde Channel-Partnern ermöglichen, "mehr KI denn je an Unternehmenskunden zu verkaufen“, sagen die CEOs von Lenovo und Nvidia.
Unternehmen, die nicht alle ihre Daten in der Cloud haben, aber dennoch mit KI arbeiten wollen, sollen demnächst auf die gemeinsamen Lösungen von Lenovo und Nvidia setzen können. Die sollen es ihnen ermöglichen, KI-Workloads auf On Prem-Servern und gar -PCs vor Ort auszuführen. Das jedenfalls verkündeten die CEOs Yuanqing Yang (Lenovo) und Jensen Huang (Nvidia) kürzlich auf der Lenovo Tech World 2023 in Austin, Texas.
Einer der Hauptmotivationen für diese Erweiterung der Zusammenarbeit der beiden Tech-Giganten sei es, das Interesse an generativer KI weiter anzuspornen, erfuhr CRN von verschiedenen Führungskräften. "Die Erstellung privater Modelle vor Ort mit eigenen Daten - das sehen wir als große Chance, die den Wert der generativen KI wirklich erweitern wird", sagte etwa Scott Tease, Vice President und General Manager of High-Performance Computing and AI bei Lenovo.
"Sobald die grundlegenden Modelle verfügbar sind, kann man sie lizensieren, personalisieren und mit den eigenen Daten privatisieren. Die Möglichkeiten dafür sind enorm. Und die Vertriebspartner werden dabei eine große Rolle spielen, denn sie sind die Experten für unsere Endkunden."
Was genau planen die Anbieter?
Die hybriden KI-Lösungen von Lenovo und Nvidia sollen es Unternehmen ermöglichen, mit Hilfe von Nvidias KI-Foundations-Cloud-Service ihre eigenen Modelle zu erstellen und diese dann auf Lenovo-Servern und -Workstations mit Nvidia-Software und -Hardware laufen zu lassen. Hardwareseitig wird die erste hybride Lösung der Lenovo ThinkSystem SR675 V3 Server sein, der mit Nvidia L40S GPUs, Nvidia BlueField-3 Datenverarbeitungseinheiten und Nvidia Spectrum-X Ethernet-Netzwerken ausgestattet ist. Außerdem gibt es den Lenovo ThinkStation PX Workstation PC mit bis zu vier Nvidia RTX 6000 Ada Lovelace GPUs in einem Desktop-Formfaktor.
Im kommenden Frühjahr soll es dann neue Lenovo-Server geben, die Nvidias modulare MGX-Referenzdesigns verwenden. Diese sollen OEMs wie Lenovo schnellere Möglichkeiten bieten, Nvidia-basierte Systeme mit einer Vielzahl von Konfigurationen zu liefern, die auf die Bedürfnisse des jeweiligen Kunden abgestimmt sind.
"Da die Chips, die Netzwerke und die Systeme immer schneller werden, können wir nicht mehr traditionell vorgehen, weder bei der Durchlaufzeit noch bei der Vorgabe, dass alles ein Motherboard-Down-Design sein muss", sagte Bob Pette, Vice President of Enterprise Platforms and Professional Visualization bei Nvidia. "MGX soll also die Möglichkeit bieten, entweder I/O oder Beschleunigung mit GPUs aufzurüsten oder auf die neuesten Intel- oder AMD-CPUs oder Nvidia Grace-CPUs umzusteigen", fügte er hinzu.
Was Software und Services angeht, so werden diese Systeme mit Nvidia AI Enterprise ausgestattet sein, einer Software-Suite, die die KI-Frameworks, vortrainierte Modelle und Tools enthält, die Unternehmen für die Entwicklung und Ausführung von KI-Workloads benötigen. Die Suite umfasst auch das Nvidia NeMo-Framework, mit dem sich große Sprachmodelle (LLMs) für eine Vielzahl von generativen KI-Anwendungsfällen erstellen, anpassen und bereitstellen lassen.
Die KI-Systeme von Lenovo werden auch die kürzlich angekündigte VMware Private AI Foundation mit Nvidia-Plattform unterstützen. Sobald diese im kommenden Jahr verfügbar ist, können Unternehmen ihre generative KI-Anwendungen auf der VMware Cloud Foundation ausführen. Tease zufolge könnten Vertriebspartner KI für mehr Unternehmen als je zuvor bereitzustellen. "Unsere gemeinsame Überzeugung ist, dass KI überall sein muss, um das Potenzial zu entfalten, das sie nun einmal hat", sagte er.
Lenovo-Partner sieht "signifikante" Nachfrage
Insight Enterprises ist ein Top-Partner von Lenovo und Nvidia aus Arizona, der bei seinen Kunden eine "sehr große" Nachfrage nach generativen KI-Lösungen" festgestellt hat. "Die Nachfrage nach Rechen- und Speicherkapazitäten wird enorm sein, und wir versuchen, mit unseren Lösungen einen Schritt voraus zu sein", berichtet Megan Amdahl, Senior Vice President of Client Experience und COO bei Insight Enterprises.
Dazu gehöre auch die Erwartung, dass die zunehmenden KI-Funktionen in PCs eine neue Welle von Migrationen auf neue Rechner auslösen werden, zumal es ab 2025 keine Unterstützung für Windows 10 mehr gebe. Um effektive generative KI-Lösungen zu liefern, arbeitet Insight daran, überzeugende interne Anwendungsfälle zu entwickeln. Dazu gehört Insight GPT, eine interne Plattform, die den Mitarbeitern eine umfassende Datenbank mit Informationen zur Verfügung stellt.
Amdahl sagte, dass ihr Team Anreize für die Entwicklung generativer KI-Anwendungsfälle schafft, indem es etwa Apple AirPods verschenkt. Zu den Belohnungen gehöre auch ein einjähriges Leasing für ein Tesla-Elektroauto für die Person, die das beste Kundenerlebnis liefere. "Wir wollen uns bei KI eben wirklich vom Wettbewerb absetzen," so Amdahl.