Schatten-KI in Unternehmen auf dem Vormarsch

Büroangestellte sind ihren Chefs längst voraus und nutzen täglich KI. Welche Daten sie da in Chat GPT oder ähnlichen künstlichen Intelligenzen eingeben? Warum das vielleicht keine gute Idee ist? Wenn Gedankenlosigkeit der Nutzer auf Sorglosigkeit von Chefs trifft.

Bilder sind mit KI schnell generiert, aber wie sieht es mit Urheberrechten aus, wenn Unternehmen sie für ihr Marketing nutzen? (Foto: Open AI)

Wenige Wochen hat das kostenlose KI-Tool ChatGPT von Open AI gebraucht, um 100 Millionen Nutzer zu gewinnen. Es dürfte die schnellste Adaptionsrate technologischer Innovationen überhaupt sein, und vom Muster der Durchsetzung lief KI zuanfang nicht unähnlich ab wie einst die Landnahme im Wilden Westen: keine Regulierung im rechtsfreien Gelände, fehlende Richtlinien oder Weisungen, geschweige denn ethische Leitplanken. In die öffentlichen Versionen von KI-Applikationen werfen Nutzer alles rein, was sie auf ihrem Storage finden. Allein die Begeisterung über den blitzschnellen Output von Bildern, Texten, Zusammenfassungen von verpassten Meetings, Zahlenkolonnen, Kundensegmentierungen, Bilanzen und ähnlichem Unternehmens-Content lässt viele Nutzer vergessen machen, dass man doch oft sensible Daten an Server Dritter schickt, wenn man die freien und meist kostenlosen KI-Bots bemüht. Da müssten bei Chefs und IT-Leitern, die sich nicht nur als technische Erfüllungsgehilfen einer Unternehmens-IT, sondern als strategische Köpfe der Unternehmensentwicklung verstehen, alle Alarmglocken läuten.

Nun also blüht die Schatten-KI. Wir hatten eine ähnliche Situation vor rund 15 Jahren, als Dropbox zum Synonym von externer Datenspeicherung in das Storage von Cloud-Anbietern geworden war. IT-Leiter verloren den Überblick, welche Cloud-Applikationen ihre Mitarbeiter verwenden. Der Begriff Schatten-IT war geboren. Nun also haben wir eine in großen Teilen ungeregelte Nutzung von Künstlicher Intelligenz in Unternehmen, weil Mitarbeiter die KI-Bots beruflich einsetzen, die sie privat ausprobieren und schätzen.

Aus dem jährlichen Employee Experience Trends Report von Qualtrics geht hervor, dass Arbeitnehmer bei der Einführung von KI schneller als ihre Arbeitgeber sind. Fast die Hälfte der Mitarbeitenden (45 Prozent) gibt an, dass ihr Unternehmen keine KI-Förderung und -Schulung anbietet, und ein ähnlich großer Anteil sagt, ihr Unternehmen habe keine klaren KI-Richtlinien, KI-Ethik oder KI-Grundsätze oder sie wissen nichts von deren Existenz. Mehr als 35.000 Beschäftigte in 23 Ländern wurden für die Untersuchung befragt, die damit als repräsentativ gilt.

"Wer mit KI im Privaten positive Erfahrungen macht, will die Technologie auch im Beruf einsetzen", sagt Bitkom-Präsident Ralf Wintergerst und sieht Folgen für Firmen. "Unternehmen müssen darauf reagieren – und zugleich darauf achten, dass sich keine Schatten-KI verbreitet, mit entsprechenden Risiken für Datensicherheit und Datenschutz."

Laut dem weltweiten Report von Qualtrics nutzt ein Viertel der Mitarbeitenden, die KI bei der Arbeit verwenden, KI-Tools, die sie selbst gefunden haben, und nicht solche, die von ihrem Unternehmen zur Verfügung gestellt wurden. Von den IT-Abteilung oder den Sicherheitsteams wurden diese Tools meist nicht genehmig. Kundendaten landen unautorisiert bei Dritten, weil Schutzmaßnahmen fehlen.

"Dies birgt erhebliche Risiken für Mitarbeitende, Kunden und Unternehmen gleichermaßen. Es ist viel besser, wenn die Unternehmensleitung genehmigte Tools und klare Anleitungen bereitstellt, um die Vorteile dieser Technologien zu nutzen, ohne das Unternehmen oder die Kunden zu gefährden", sagt Benjamin Granger, Chief Workplace Psychologist bei Qualtrics.

Für IT-Dienstleister ist diese Situation von Vorteil, denn Unternehmen müssen und wollen wohl auch beraten werden, wie KI-Richtlinien und rechtssichere KI-Nutzung eingeführt werden sollen. Voraussetzung ist freilich, dass die Dienstleister selbst über technologisches und rechtliches Kow-how verfügen, um die Schatten-KI in eine geordnete und organisierte Unternehmens-IT zu überführen.