Lars, but not Least: Wenn Autos zu Rassisten werden

Eine wissenschaftliche Untersuchung zeigt, dass autonome Autos dunkelhäutige Menschen möglicherweise eher überfahren würden als hellhäutige. Die Ursache dafür liegt nicht etwa in Schwierigkeiten der Sensoren, sondern in einem Grundproblem der KI.

Wenn die Software Auto fährt, kann das für dunkelhäutige Mitmenschen besonders gefährlich sein
(Foto: RioPatuca Images - Fotolia.com)

Mit großer Sorge und nicht minder großen Hoffnungen blickt die Menschheit auf die Künstliche Intelligenz. Ihr wird das das Potenzial zugeschrieben, die industrielle und die auch die bisherige digitale Revolution in den Schatten zu stellen und damit das gesamte Leben der Menschheit umzukrempeln. Kluge Systeme können schon heute manche Krankheiten schneller erkennen als die besten Ärzte und sollen künftig auch individuell passende Therapien entwickeln. Sie sollen Autos, Flugzeuge und sogar ganze Verkehrsinfrastrukturen und Städte selbständig und effizienter steuern sowie die Produktion in der Industrie von der einzelnen Maschine bis hin zur gesamten Vertriebs- und Logistikkette auf ein neues Level bringen.

Gleichzeitig bringt KI jedoch auch erhebliche Gefahren mit sich und erfordert in einigen Bereichen auch eine ganz neue ethische Debatte und politische und gesellschaftliche Lösungen. So gilt es etwa sicherzustellen, dass die KI am Ende tatsächlich der Menschheit dient und nicht nur einigen wenigen oder gar wir zu ihren Sklaven werden. Dazu muss auch geregelt werden, was mit all jenen geschieht, deren Jobs durch Software ersetzt wird. Ganz wesentlich ist dabei die Frage, wer die KI designt und wer sie überwacht. Denn zumindest in ihrer heutigen Ausbaustufe steckt die digitale Intelligenz noch voller Fehler, die bei allzu fahrlässiger Blauäugigkeit gravierende Auswirkungen haben können. Oft sind diese Fehler nur schwer zu erkennen, oder fallen erst auf, wenn es schon zu spät ist.

Neben menschlichen Ursachen wie schlechtem Code oder fehlenden ethischen und technischen Standards liegt das zumeist am System selbst. Denn die meisten KI-Lösungen lernen vor allem dazu, indem sie riesige Datenmengen analysieren und sich daraus selbst Regeln ableiten, die kaum zu kontrollieren oder verifizieren sind. Indem sie dabei alles über einen Kamm scheren, werfen sie eine wichtige menschliche Erkenntnis über Bord. Plötzlich bestätigen Ausnahmen nicht mehr die Regel, sondern fallen aus ihr heraus.

Übersicht