CSP auf dem Weg zum KI-Jedi: Selbstversuche als Basis

Weltweit suchen Systemhäuser und Cloud-Dienstleister derzeit nach einer Formel, um erfolgreiche KI-Angebote für ihre Kunden zu entwickeln. Dabei hat es sich als besonders erfolgversprechend herausgestellt, die KI-Lösungen zunächst intern zu testen und weiterzuentwickeln, bevor sie auf den Markt und zu den Kunden getragen werden.

(Foto: Just_Super - GettyImages)

Cloud-Solution-Provider erzielen großen Erfolg beim Verkauf verschiedenster KI-Lösungen und -Services, wenn sie ihre KI-Innovationen zuerst im eigenen Unternehmen einführen und testen, um damit sicherzustellen, dass die KI tatsächlich zuverlässig arbeitet und die gewünschte Wirkung entfaltet. Vom "Löffeln der eigenen Suppe" bis hin zur Ausbildung von "KI-Jedis": Dienstleister berichten übereinstimmend, dass das interne Erproben von KI-Lösungen ihnen die Aufmerksamkeit und das Vertrauen der Kunden verschafft.

"Wir sind für unsere eigenen KI-Services, die wir anbieten, Kunde Nummer null", erklärt etwa Sanjay Singh, CEO des amerikanischen KI-Cloud-Solution-Providers Onix. "Jeder muss den KI-Stack lernen und sich dafür zertifizieren lassen. Es ist also eine Haltung – und eine knallharte Disziplin –, die wir etablieren. Und genau das hilft uns, mehr KI-Kunden zu gewinnen." Als Beispiel führt er die selbst entwickelte agentische KI-Plattform Wingspan an. Nachdem Onix diese intern getestet hatte, konnte das Unternehmen bei Kundengesprächen praxisnahe Use Cases im eigenen Haus nachweisen. Das beschleunigte laut Singh den Verkauf von Wingspan erheblich. "Wenn wir Plattformen mit agentischer KI entwickeln und KI-Delivery-Lösungen aufbauen, versuchen wir, für alles ‚Kunde Nummer null‘ zu sein", unterstreicht er. "Das hilft Kunden zu sehen, dass wir es selbst umgesetzt haben, dass sie dem Ganzen vertrauen können und dass die Ergebnisse funktionieren."

Der Weg der KI-Jedi

Für den in Ontario ansässigen Cloud-Solution-Provider Pythian war es wichtig, dass die Mitarbeitenden Google Gemini zunächst intern nutzen und annehmen, bevor das Unternehmen KI-Lösungen für den Markt entwickelt und einführt. "Wir mussten Gemini zunächst einmal intern annehmen, damit wirklich alle Mitarbeitenden es nutzen. Nur so konnten wir sie dazu bringen, Gemini wirklich anzunehmen, um damit zunächst selbst zu innovieren: Wie können sie ihre eigenen Agenten bauen? Wie können sie die Art verändern, wie sie arbeiten?", führt Pythian-CEO Brooks Borcherding aus. "Kunden sehen gern, dass man es selbst auch nutzt und darauf setzt", sagt er und vergleicht es bildlich damit, auch "die eigene Suppe zu essen", die man den Kunden verkaufen wolle. "Wir schauen sehr genau auf unsere eigene interne 'Hygiene', um uns zuerst selbst mit KI zu befähigen. Damit wir ein besseres Unternehmen werden, bevor wir all das unseren Kunden anbieten", fügte er hinzu.

Aus dieser Strategie entstand das, was Pythian seine Praxis der "KI-Jedi" nennt: Eine eigene KI-Business-Unit aus hochqualifizierten KI-Praxis-Spezialisten, die sich mit voller Konzentration darauf ausrichten, Cloud-Kunden bei der Einführung von KI-Services und -Lösungen zu unterstützen. "Sie konzentrieren sich darauf, wie wir Unternehmen helfen können, KI zu übernehmen, um ihre eigenen IT-Operationen intern zu verbessern – so wie wir es getan haben", beschreibt Borcherding. "Es hat uns gelehrt: 'Wie gehen wir wirklich in die Tiefe, um KI für unsere Managed Services zu nutzen? Wie verbessern wir Ticket-Antworten? Wie automatisieren wir häufige Antworten?' Und genau das nutzen wir, um die Infrastruktur unserer Kunden zu verbessern."

Deutlicher Anstieg bei Unternehmen, die KI-Services "umfangreich" nutzen

Während Systemhäuser KI-Innovationen und Use Cases zunächst intern testen, nimmt die Kundennutzung agentischer und generativer KI-Services in Public Clouds Jahr für Jahr weiter zu. In einem Flexera-Marktbericht aus dem Jahr 2026, für den über 750 Tech-Führungskräfte befragt wurden, gaben 45 Prozent der Befragten an, Public-Cloud-KI-Services "umfangreich" zu nutzen. Ein deutlicher Anstieg gegenüber 25 Prozent im Jahr 2024. Zusätzlich nutzen 36 Prozent der Befragten Public-Cloud-Services 2026 "dosiert", gegenüber 22 Prozent im Jahr 2024. Interessant ist zudem, dass 100 Prozent der Führungskräfte im Report angaben, 2026 Cloud-GenAI-Services zu nutzen. Auch das nochmals ein klarer Anstieg gegenüber den 85 Prozent aus dem Jahr 2024.

Das sind gute Nachrichten für Solution Provider, die eigene KI-Lösungen und -Services auf den Produkten von Public-Cloud-Anbietern aufbauen und verkaufen.

"Wir können mehr von der KI-Nachfrage bedienen"

Der Cloud-Solution-Provider Innovative Solutions konnte seine agentische KI-Consulting-Plattform DarcyIQ im vergangenen Jahr starten, nachdem er sie getestet und gemeinsam mit der KI-Technologie von AWS weiterentwickelt hatte. In diesem Monat startete Innovative auf DarcyIQ basierend sein KI-gestütztes Angebot "Agentic Delivery". Es befähigt KI-Agenten, über den gesamten Delivery-Lebenszyklus hinweg Seite an Seite mit Data Architects und Engineers zu arbeiten. Auch Innovative habe seine neuen agentischen Delivery-Services dabei zunächst intern aufgebaut, bestätigt CEO Justin Copie.

"Ich ging durch die Flure von Innovative in Rochester und schaute einem unserer Entwickler über die Schulter. Dieser Entwickler hatte fünf Bildschirme, die alle gleichzeitig liefen. Und ich konnte sehen, dass es tatsächlich KI war, die programmierte. Ich fragte den Entwickler: ‚Hey, du warst doch gerade in einem Kundencall. Was habt ihr da auf diesen fünf Bildschirmen gemacht?‘ Er sagte: ‚Oh, diese fünf Bildschirme gehören nicht zu dem Kunden, mit dem ich gerade gesprochen habe; das sind fünf andere Kunden, an denen ich gerade parallel arbeite.‘", berichtet Copie. "Wir konnten sehen, dass die eigenen Use Cases der Kunden dafür enorm sind."

Durch den internen Einsatz von DarcyIQ konnte Innovative erfolgreiche Use Cases identifizieren und ein ergebnisorientiertes Angebot entwickeln, das Kunden in hohem Tempo überzeugt. "Wo wir früher vier oder fünf Personen auf ein Projekt ansetzen mussten, können wir das jetzt auf etwa zwei oder drei verschlanken, weil wir KI einsetzen, um mehr zu leisten", sagt Copie. "So können wir mehr von der KI-Nachfrage bedienen, die unsere Kunden da draußen haben."

Dieser Artikel erschien zuerst bei unserer Schwesterpublikation crn.com.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden