Datensicherheit hinkt dem KI-Boom hinterher
Während die KI-Nutzung in Unternehmen rasant ansteigt, bleibt die Sicherheit dabei oft noch auf der Strecke. Fast die Hälfte der Angestellten nutzt private KI-Accounts, viele geben in den ungeschützten Umgebungen sensible Informationen preis. Dadurch hat sich die Zahl der Verstöße gegen Datensicherheitsrichtlinien zuletzt verdoppelt.
Der KI-Boom setzt viele Unternehmen unter erheblichen Druck. Denn während sie als Organisation oft noch damit beschäftigt sind, Use Cases für Produktivitätsgewinne zu identifizieren und die Einführung sicherer Strategien und Lösungen dafür vorzubereiten, preschen ihre Mitarbeiter oft voran und verursachen dabei erhebliche Sicherheitsrisiken. Laut dem gerade veröffentlichten Cloud and Threat Report 2026, in dem die Netskope Threat Labs anonymisierte Daten aus der eigenen Security Cloud Plattform analysieren, hat sich die Zahl der Nutzer von SaaS-GenAI-Anwendungen im vergangenen Jahr verdreifacht. Noch stärker stieg die Intensität der Nutzung an, was sich in einer Versechsfachung der Prompts manifestierte.
Ein nicht unerheblicher Teil dieser Aktivitäten findet allerdings auf unsicherem Terrain statt. War das früher meist der Fall, weil Vorgaben und Tools seitens des Arbeitgebers fehlten, geht es nun zunehmend darum, dass diese zwar vorhanden sind, aufgrund der Nutzungsgewohnheiten oder von Restriktionen jedoch ignoriert werden. Obwohl der Anteil der Angestellten, die organisationsverwaltete Konten nutzen, von 25 auf 62 Prozent gestiegen ist, greifen dem Report zufolge zugleich noch immer 47 Prozent der Anwender für geschäftliche Zwecke auch auf private KI-Accounts zurück. Auch wenn dieser Anteil gegenüber den 2023 noch verzeichneten 78 Prozent deutlich gesunken ist, ist das nur bedingt eine gute Nachricht. Zum einen ist mit der zunehmenden Bereitstellung entsprechender Möglichkeiten durch die Unternehmen auch die Zahl derer gestiegen, die sowohl private als auch berufliche KI-Accounts für ihre Tätigkeit nutzen. Zum anderen bedeutet es angesichts des größeren Anstiegs der Nutzerzahlen und -Intensität, dass absolut betrachtet noch immer mindestens ebenso viele Angestellte wie zuvor nicht freigegebene Tools nutzen.
Mehr als 10 Datenverstöße pro Firma und Tag über KI
Damit ist die Schatten-KI in Unternehmen also in etwa ebenso verbreitet wie die freigegebenen Tools. Das erzeugt erhebliche Sicherheitsrisiken, die trotz aller Verstärkungen der IT-Abteilungen und der Sicherheitsstrategien nicht kontrollierbar sind. Welche Risiken das konkret beinhalten kann, zeigt die Analyse der häufigsten in öffentlich zugängliche GenAI-Werkzeuge hochgeladenen sensiblen Informationen: Neben Quellcode (42 Prozent) vertrauen die Nutzer ihnen häufig auch direkt regulierte Daten (32 Prozent) oder geistiges Eigentum der Firma (16 Prozent) an.
Diese Sorglosigkeit führte im vergangenen Jahr zu einer Verdopplung der Verstöße gegen Datensicherheitsrichtlinien im Zusammenhang mit KI-Anwendungen. Im Durchschnitt verzeichnete jedes Unternehmen pro Monat 223 Vorfälle, bei denen sensible Daten an KI-Apps gesendet wurden. Bei mehr als der Hälfte der Verstöße gegen Datenrichtlinien waren das regulierte Daten wie Finanz-, Gesundheits- oder Personaldaten. Unternehmen aus dem oberen Viertel der Vorfallstabelle kommen im Durchschnitt sogar fast auf den zehnfachen Wert (2.100 Vorfälle monatlich). Stehen schon bisher 60 Prozent aller Insider-Bedrohungen im Zusammenhang mit der Nutzung privater Cloud-Instanzen wie Google Drive oder OneDrive, wird dieses Sicherheitsrisiko durch die private Nutzung von GenAI-Tools nun noch massiv verstärkt.
Und dieser Wildwuchs bei generativer KI ist nicht das einzige KI-Problem, das Unternehmen im Jahr 2026 nach dem Dafürhalten von Netskope erwarten wird. Auch die agentische KI (Agentic AI), die autonom komplexe Aufgaben über verschiedene Unternehmensressourcen hinweg übernimmt, wird mit ihrer wachsenden Komplexität und Eingriffssphäre zu einer immer größeren Herausforderung, die laut Ray Canzanese, Director der Netskope Threat Labs, "eine völlig neue Angriffsfläche" schafft. "Wenn autonome Agenten Zugriff auf interne Daten erhalten, können Fehlkonfigurationen oder bösartige Prompts zu massiven Datenabflüssen in Millisekunden führen", führt er typische Risiken an. Weitere kritische KI-Sicherheitsrisiken für Unternehmen identifiziert Netskope in der wachsenden Nutzung KI-gesteuerter Browser und dem Model Context Protocol (MCP).
Um sich gegen diese KI-Gefahren und andere Bedrohungen zu schützen, empfiehlt der Report folgende vier Maßnahmen:
- Vollständige Inspektion: Eine lückenlose Überwachung des gesamten HTTP/HTTPS-Verkehrs, inklusive des KI-Traffics.
- DLP-Fokus: Einsatz von Data Loss Prevention, um Quellcode und Passwörter vor dem Abfluss in KI-Modelle zu schützen.
- App-Governance: Risikoreiche Tools ohne Geschäftszweck wie ZeroGPT und DeepSeek sind zu blockieren.
- Isolation: Nutzung von Remote Browser Isolation (RBI) für riskante oder neue Domains.
CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden