Künstliche Intelligenz: Politik muss Grenzen setzen: KI-Diskussion erinnert an die der ersten Atombombe

Die Diskussion um das Thema Künstliche Intelligenz (KI) erinnert Dell-EMC-Chef Dinko Eror an die Kritik der ersten Atombombe. Er hält eine gesetzliche Regulierung für unabdingbar: Nicht alles, was technisch möglich ist, sollte auch erlaubt sein.

Dell-EMC-Chef Dinko Eror fordert gesetzliche Regelungen für Innovation: »Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln«
(Foto: Dell EMC)

»Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen«, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland. In einem Beitrag setzt sich der IT-Manager kritisch mit den Chancen und Risiken von Innovation auseinander und fordert, dass für Entwicklungen wie KI ethische Grenzen gelten müssen.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die ihn stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt. Der Unternehmer Elon Musk etwa sieht in der KI »die größte Bedrohung für das Überleben der Menschheit«, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende verdrängt werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und »Entscheidungen selbst treffen« können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. »Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht«, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Übersicht