KI am Edge: Warum Unternehmen im DACH-Markt auf Nähe, Kontrolle und Geschwindigkeit setzen
Deutsche, österreichische und Schweizer Unternehmen betreiben künstliche Intelligenz zunehmend lokal, containerisiert und auf Bare Metal – weit häufiger als der globale Durchschnitt. Eine Diskussionsrunde mit Nutanix-Managern beleuchtet die Hintergründe: Industriestruktur, Datensouveränität und der Kampf gegen Schatten-KI prägen eine eigenständige DACH-Strategie.
Die Debatte um künstliche Intelligenz wird häufig von spektakulären Anwendungsfällen bestimmt. Generative Sprachmodelle, autonome Systeme oder bildgebende Diagnostik beherrschen die Schlagzeilen. Weitaus weniger Aufmerksamkeit bekommt hingegen eine Frage, die für die tatsächliche Nutzbarkeit von KI in Unternehmen mindestens ebenso entscheidend ist: wo genau diese Systeme betrieben werden. Genau diese infrastrukturelle Dimension stand im Mittelpunkt einer Diskussionsrunde, zu der das Unternehmen Nutanix Manager aus dem DACH-Raum zusammenbrachte.
Die Gesprächspartner – Thomas Herrguth, General Manager für Deutschland, und Beat Müller, Technical Director für die Schweiz und Österreich – präsentierten dabei Studiendaten, die ein ungewöhnlich klares Bild zeichnen.
81 Prozent der deutschen Unternehmen betreiben ihre KI bereits über Managed Service Provider – ein Wert, der den weltweiten Schnitt von 65 Prozent deutlich übertrifft. Gleichzeitig laufen 62 Prozent der KI-Workloads am Edge und 61 Prozent im eigenen Rechenzentrum. Diese Zahlen schließen sich nicht aus, im Gegenteil: Sie belegen, dass im deutschsprachigen Raum hybride Betriebsmodelle längst die Regel sind. Unternehmen verteilen ihre KI-Anwendungen je nach Anforderungsprofil auf verschiedene Infrastrukturebenen – und beenden damit die jahrelange Debatte über Cloud versus On-Premises zugunsten eines pragmatischeren Nebeneinanders.
Die Fabrikhalle als Treiber
Besonders markant ist der Vorsprung von Unternehmen aus dem DACH-Raum beim Edge Computing: 65 Prozent der deutschen Unternehmen betreiben containerisierte Anwendungen bereits am Edge – gegenüber lediglich 43 Prozent weltweit. In drei Jahren soll der Anteil auf 77 Prozent steigen, während der internationale Vergleichswert nur auf 55 Prozent wächst. Der Abstand von rund 22 Prozentpunkten ist kein Zufall, sondern das direkte Abbild einer spezifischen Wirtschaftsstruktur.
Beat Müller brachte die Logik dahinter auf den Punkt: In der DACH-Region entstehen Daten physisch dort, wo produziert wird – am Fließband, in der Werkshalle, im Logistikzentrum. Maschinen, Roboter und Kamerasysteme erzeugen kontinuierlich hochvolumige Echtzeitdaten. Diese in zentrale Cloud-Infrastrukturen zu übertragen, um sie dort auszuwerten, kostet Zeit – und Zeit ist in industriellen Prozessen gleichbedeutend mit Geld.
Ein Qualitätsmerkmal, das am Band erkannt werden muss, duldet keine Latenz. Predictive Maintenance, also die vorausschauende Erkennung von Maschinenverschleiß, erfordert Entscheidungen in Echtzeit: Wenn Sensordaten darauf hinweisen, dass ein Werkzeug ausgewechselt werden muss, zählt nicht die Stunde, sondern die Sekunde.
Dieser Bedarf nach Geschwindigkeit erklärt auch einen weiteren Befund, die die Nutanix-Studie liefert und im internationalen Vergleich heraussticht: Drei Viertel der deutschen Unternehmen betreibt containerisierte Anwendungen auf Bare-Metal-Infrastrukturen – weltweit sind es 56 Prozent. Rund 20 Prozent setzen KI sogar ausschließlich auf dieser Architektur ein, ohne eine Virtualisierungsschicht dazwischen. Herrguth beschrieb das als typisch deutschen Ansatz: Kontrolle über Daten und Prozesse, kurze Latenzzeiten und ein hohes Sicherheitsbewusstsein sind Faktoren, die in Produktionsumgebungen nicht verhandelbar sind.
Operative Voraussetzung: Datensouveränität
Auf die Frage, warum Unternehmen containerisierte Anwendungen an einem bestimmten Ort betreiben, gaben deutsche Befragte eine bemerkenswerte Prioritätenfolge an: Auf Platz eins landet mit 81 Prozent die Netzwerknähe und niedrige Latenz – ein Thema, das weltweit erst den dritten Rang belegt.
Auf Platz zwei folgt umgebungsübergreifende Konsistenz (79 Prozent), erst auf Platz drei erscheint Regulatorik und Datensouveränität (76 Prozent). Diese Reihenfolge überrascht auf den ersten Blick: Deutschland gilt gemeinhin als Hochburg des Datenschutzes, und dennoch rangiert Latenz vor Compliance.
Herrguth erklärte die Paradoxie schlüssig: Datensouveränität sei für Unternehmen, die KI im eigenen Rechenzentrum betreiben, längst keine Variable mehr, sondern eine Grundbedingung. Wer KI on-premises einsetzt, hat die Frage der Datenkontrolle bereits im Vorfeld gelöst. Was nun zählt, sind die Faktoren, die konkreten Mehrwert schaffen: Geschwindigkeit, Konsistenz und Effizienz. Der DACH-Markt befindet sich, in dieser Lesart, schlicht einen Schritt weiter in der Reifekurve – die Infrastrukturentscheidung ist getroffen, die Optimierung steht im Vordergrund.
Als wichtigstes Geschäftsziel ihrer KI- und Container-Investitionen nannten 64 Prozent der deutschen Unternehmen die schnellere Entscheidungsfindung – ein Wert, der sich deutlich von den internationalen Prioritäten abhebt, wo die Verbesserung der Kunden- und Mitarbeitererfahrung an erster Stelle steht. Der Unterschied spiegelt einmal mehr die Dominanz industrieller Anwendungsfälle wider. In der Fertigung entscheidet die Reaktionsgeschwindigkeit über Produktionsausfälle oder reibungslose Abläufe, in der Finanzbranche über das Erkennen von Betrug in Millisekunden, in der Pharmaindustrie über die Auswertungsgeschwindigkeit von Forschungsdaten.
Herrguth verwies zudem auf einen Trend, der in den Studiendaten noch unterrepräsentiert ist, aber in der Praxis bereits deutlich spürbar wird: den Einsatz von KI in der Produktentwicklung. Dort ersetzen Millionen virtueller Simulationen heute klassische mechanische Tests – und verändern damit fundamentale Aspekte industrieller Innovationsprozesse.
Schatten-KI und das Ende der Verbotslogik
Doch neben den Chancen treten auch handfeste Risiken zutage. 77 Prozent der deutschen Unternehmen geben an, dass organisatorische Silos zwischen Fachabteilungen und IT ihre Technologieprojekte bremsen. Noch gravierender wirkt ein anderer Befund: 85 Prozent berichten von sogenannter Schatten-KI – dem Einsatz von KI-Tools durch Mitarbeitende ohne Wissen der IT-Abteilung. Damit liegt Deutschland sogar über dem weltweiten Schnitt von 79 Prozent.
Beat Müller zeigte sich von dieser Zahl nicht überrascht. In vielen Projekten erlebe er, dass das Risikobewusstsein für den unkontrollierten Einsatz externer KI-Dienste noch immer unzureichend ausgeprägt sei. Sensible Geschäftsdaten landen auf fremden Servern, ohne dass Unternehmen Einblick in die Verarbeitungsprozesse haben. Die naheliegende Gegenmaßnahme – Verbote – greife jedoch zu kurz. "Die IT muss als Enabler auftreten, nicht als Blocker", formulierte Müller. Wenn offizielle, intern bereitgestellte KI-Werkzeuge ebenso bequem und schnell verfügbar seien wie externe Dienste, verliere Schatten-KI ihren wichtigsten Anreiz.
Herrguth fügte hinzu, dass das Problem nicht rein technischer Natur sei: Es brauche eine Kultur der zentralen Koordination, klare Zuständigkeiten und ein Bewusstsein dafür, auf welche Datenpools KI-Systeme jeweils zugreifen. Manchmal sei weniger mehr – die zunehmende Flut verfügbarer KI-Tools führe dazu, dass selbst erfahrene Nutzer den Überblick verlieren.
Konsistenz als strategische Antwort
Die genannten Risiken – Silos, Schatten-KI, Fachkräftemangel und heterogene Plattformlandschaften – konvergieren in einer zentralen Herausforderung: Konsistenz. Unternehmen operieren heute gleichzeitig in Cloud-Umgebungen, eigenen Rechenzentren, Edge-Infrastrukturen und containerisierten Plattformen. Jede davon bringt eigene Werkzeuge, Sicherheitsrichtlinien und Zuständigkeiten mit sich. Von einzelnen Spezialisten zu erwarten, fünf oder mehr Plattformwelten gleichzeitig zu beherrschen, ist angesichts des anhaltenden Fachkräftemangels unrealistisch.
Plattformansätze, die zentrale Verwaltung, einheitliche Sicherheitsrichtlinien und konsistente Betriebsprozesse über alle Infrastrukturebenen hinweg ermöglichen, gewinnen daher strategische Bedeutung. Müller verdeutlichte dies am Beispiel von Silo-Strukturen: Je mehr getrennte Management-Oberflächen ein Unternehmen betreibe, desto anfälliger werde das Gesamtsystem für Fehler, Compliance-Lücken und operative Ineffizienzen. Die Antwort liegt nicht in mehr Komplexität, sondern in deren Reduktion durch übergreifende Plattformlösungen.
Der DACH-Raum entwickelt sich bei alledem zu einem eigenständigen Modell im globalen KI-Gefüge. Während andere Märkte stärker auf zentralisierte Hyperscaler-Architekturen setzen, bevorzugen Unternehmen in Deutschland, Österreich und der Schweiz hybride, lokal kontrollierbare Ansätze – getrieben von Industriestruktur, regulatorischen Anforderungen und einem tief verwurzelten Bedürfnis nach Datensouveränität.
Die zentrale Erkenntnis der Diskussionsrunde lässt sich in einem Satz zusammenfassen: KI wird im DACH-Raum nicht allein über technologische Innovation definiert, sondern über die Fähigkeit, diese Innovation kontrolliert, sicher und in Echtzeit verfügbar zu machen. Darin könnte langfristig ein entscheidender Wettbewerbsvorteil liegen – einer, der aus strukturellen Besonderheiten erwächst, die lange als Hemmnis galten.
Zur Studie
Die zitierten Daten stammen aus einer Studie von Nutanix zu KI-Betrieb, Containerisierung und Edge Computing im DACH-Raum. Die Befragung wurde Ende 2025 durchgeführt. Die Diskussionsrunde mit Thomas Herrguth, General Manager Nutanix Deutschland, und Beat Müller, Technical Director Switzerland & Austria, fand im Mai 2026 statt.