Warum gute KI gute Führung braucht

KI lernt aus organisatorischen Mustern, nicht aus Absichten. Dadurch kann sie Fehler entwickeln, die sich in den automatisierten Systemen festsetzen oder gar weiter verstärken. Um daraus hervorgehende Risiken zu vermeiden, ist es eine Pflichtaufgabe für Führungskräfte, die Modelle und ihre Ergebnisse regelmäßig zu hinterfragen.

KI übernimmt selbst kleinste subjektive, kulturelle und strukturelle Vorurteile, Rollenbilder und Ungleichgewichte aus den Trainingsdaten und verfestigt und skaliert diese (Foto: stock_colors - GettyImages)

Haben Sie sich schon einmal damit auseinandergesetzt, inwieweit Entscheidungen, die Sie heute treffen, morgen zu automatisierten Regeln werden könnten? Mit der zunehmenden Verbreitung von KI-Tools am Arbeitsplatz bringen die Gewohnheiten und Abläufe innerhalb einer Organisation den Systemen still und leise bei, wie sie Entscheidungen in einem größeren Rahmen treffen können. Was früher kleine menschliche Vorurteile waren, wird damit zu digitalen Standardeinstellungen.

Das lässt sich aktuell gut beobachten. Mein kürzlich auf LinkedIn veröffentlichter Beitrag ging viral und löste eine Welle von Diskussionen über Geschlecht, Vorurteile und Machtverhältnisse aus, sowie darüber, wessen Stimmen online verstärkt werden und wessen ignoriert werden. Die Reaktionen haben eines sehr deutlich gemacht: Die Menschen verstehen bereits, was passiert, wenn Vorurteile auf Technologie treffen. Die Muster werden lauter. Die Ungleichheiten werden schneller. Und die Ergebnisse lassen sich schwerer hinterfragen, weil "das System" neutral erscheint, obwohl es lediglich die etablierten Machtverhältnisse und Muster widerspiegelt.

Vorurteile sind nicht nur ein individuelles Problem. Sie sind eine strukturelle Realität. Sie bestimmen, wer gecoacht und wer korrigiert wird. Wer als hochqualifiziert gilt. Wessen Selbstvertrauen als Führungsstärke ausgelegt und wessen als störend bezeichnet wird. Diese Muster gab es schon lange vor dem Aufkommen der KI. Jetzt aber lernt die KI von ihnen, und sobald sie das tut, skaliert sie diesen Bias.

Das ist die wichtige Erkenntnis, die Führungskräfte verstehen müssen. KI lernt nicht von dem, was wir beabsichtigen. KI lernt von dem, was wir fortlaufend tun. Sie lernt aus unseren Unterlagen, unseren Bewertungen und unserer Einstellungshistorie. Aber KI-Tools lernen auch aus unserem Schweigen und unseren organisatorischen Gewohnheiten. Auf diese Weise überträgt sich Voreingenommenheit von menschlichen Entscheidungen auf die Organisationsstruktur und schließlich auf die Logik automatisierter Systeme. Nicht weil jemand dies bewusst gewählt hat, sondern weil niemand eingegriffen hat.

Wie Voreingenommenheit zu digitaler Voreingenommenheit wird

Verschiedene KI-Tools nehmen Voreingenommenheit auf unterschiedliche Weise auf und reproduzieren sie. Große Sprachmodelle lernen aus den Mustern in der Kommunikation und Entscheidungsfindung von Organisationen. Wenn bestimmte Gruppen als schwächer vorbereitet, weniger technisch versiert oder schlechter abgestimmt beschrieben wurden, können LLMs diese Zuschreibungen verinnerlichen und in Zusammenfassungen, Empfehlungen oder automatisiertem Coaching wiederholen.

Keines dieser Tools ist also neutral. Vielmehr sind sie eine Art Spiegel. Wenn die Eingabe verzerrt ist, ist es damit auch die Ausgabe.

Laut Harvard Business Review neigen KI-Systeme dazu, Ungleichheit zu verfestigen, wenn sie ohne Aufsicht aus historischen Daten lernen. Das Responsible AI-Team von Microsoft warnt ebenfalls davor, dass LLMs Muster von geschlechtsspezifischen, rassistischen und kulturellen Verzerrungen reproduzieren, die in ihren Trainingsdatensätzen verankert sind. Und das AI Risk Management Framework des NIST stellt klar, dass Unternehmen zunächst ihre eigenen Vorurteile verstehen müssen, bevor sie die Fairness ihrer KI-Tools bewerten können.

Die Botschaft daraus ist über alle Institutionen hinweg einheitlich: KI verstärkt die Kultur, von der sie lernt.

Wo Führungskräfte die Auswirkungen zuerst sehen

Voreingenommene KI führt selten unmittelbar zu dramatischen Fehlschlägen. Vielmehr zeigt sie sich auf subtile Weise. Dann wird beispielsweise ein Mitarbeiter wiederholt bei Beförderungen übergangen, obwohl er gute Leistungen erbringt. Ein anderer erhält mehr automatisierte Korrekturen oder Verwarnungen als Kollegen mit ähnlichen Arbeitsmustern. Die Einstellungsprozesse werden weniger vielfältig. Ein Feedback-Modell wertet einige Kommunikationsstile ab, während es andere hervorhebt. Obwohl das System behauptet objektiv zu sein, fühlen sich Talente nicht angemessen gewürdigt und wertgeschätzt.

Führungskräfte gehen gerne davon aus, dass Technologie per se fair ist, eben weil sie technisch ist. Aber gerade bei KI spiegelt das System nur das wider, was es von den Menschen gelernt hat, die es entwickelt haben, und in den Mustern der Daten erkannt, auf denen es trainiert wurde.

KI erfindet keine Ungleichheit. Aber sie wiederholt sie in großem Maßstab. Und dieser Maßstab macht Vorurteile schwerer erkennbar und noch schwieriger zu beseitigen.

Wie Führungskräfte die Kontrolle zurückgewinnen

Der erste Schritt ist das Bewusstsein für das Problem. Führungskräfte müssen erkennen, dass jedes KI-System auf menschlichen Entscheidungen und organisatorischen Mustern trainiert ist. Die Frage ist nicht, ob Vorurteile existieren. Die Frage ist, ob Führungskräfte sich dafür entscheiden, sie zu identifizieren und zu unterbinden.

Dies erfordert eine ehrliche Reflexion darüber, wie Entscheidungen getroffen werden. Die Harvard Business Review betont, dass KI-Fairness mit der Bewertung der menschlichen Systeme beginnt, die die Daten generieren. Führungskräfte müssen genau hinschauen, wer Chancen erhält, wer unter die Lupe genommen wird und wie ähnliche Verhaltensweisen in verschiedenen Gruppen unterschiedlich interpretiert werden. Diese Muster sind wichtig, weil sie zu Trainingsdaten werden.

Der nächste Schritt besteht darin, die Datensätze hinter Ihren KI-Tools zu überprüfen. Sowohl Microsoft als auch NIST empfehlen, historische Bewertungen, Einstellungstrends, Dokumentationspraktiken und Beförderungsergebnisse auf Ungleichheiten zu überprüfen. Wenn Ihre dort Organisation Lücken aufweist, wird dies auch bei Ihrem Algorithmus der Fall sein.

Schließlich müssen Führungskräfte technische Governance mit kultureller Verantwortlichkeit verbinden. Man kann keine ethische KI innerhalb einer unethischen Entscheidungskultur aufbauen. Technische Lösungen sind wenig sinnvoll, wenn das organisatorische Umfeld, in dem die Daten entstehen, unverändert bleibt.

Voreingenommenheit ist nicht nur ein Datenproblem. Es ist ein Führungsproblem. Und Führung ist der einzige Ort, an dem es gelöst werden kann.

Die Führungsaufgabe in der KI-Revolution

KI verändert den Arbeitsplatz schneller als viele erwartet haben, aber trotz ihrer Geschwindigkeit und Raffinesse wird KI eine Organisation nicht von selbst fairer machen. Sie wird eine Organisation nur konsistenter machen. Alle bestehenden Muster werden sich wiederholen. Alle bestehenden Ungleichheiten werden reproduziert. Alle bestehenden Machtverhältnisse werden verstärkt.

Wenn eine Kultur Fairness und Reflexion schätzt, kann KI dies verstärken. Wenn eine Kultur Verantwortlichkeit vermeidet, wird KI auch dies verstärken. Voreingenommenheit wird strukturell, wenn niemand sie unterbricht. Voreingenommenheit wird digital, wenn Technologie sie lernt.

Führungskräfte stehen nun vor einer Entscheidung: das Muster untersuchen, solange es noch klein ist, oder warten, bis es automatisiert und viel schwieriger rückgängig zu machen ist.

So oder so wird dadurch die Zukunft geschrieben. Die entscheidende Frage ist nur, ob sie sich selbst überlassen oder eben bewusst gestaltet wird.

Dieser Artikel erschien zuerst bei unserer Schwesterpublikation crn.com

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden