Editorial CRN 43/2016: Manipulierende ­Meinungsroboter

Social Bots gefährden Digitalriesen und Demokratien gleichermaßen. Noch bringt Künstliche Intelligenz aber keinen Präsidenten hervor. Denn narzisstische Egomanen stehen sich - zum Glück - noch selbst auf den Füßen.

An gefälschte Produktbewertungen bei Shoppingportalen haben wir uns schon gewöhnt. Die vielen (Hunger-)Lohnschreiber, die im Auftrag von Agenturen positive Meinungen verbreiten, sind geradezu sym­pathische, weil noch physisch existente Zeitgenossen im Vergleich zu dem, was Schummel-Software in Sachen Kommunikation heute zu leisten vermag. Der Einsatz von Social Bots bei Twitter & Co ist viel perfider. Damit lassen sich hunderte von Fake-Accounts erstellen, Likes und Retweets steuern und sogar eigene Tweets verbreiten. Ein Drittel aller Tweets des Wahlkampfteams von Donald Trump stammt von automatisierten Nutzerkonten, ein Fünftel ist es bei Hillary Clinton. Millionen von Maschinen erzeugte Mikrobeiträge sollen Stimmung und Meinung machen.

Die auf Knopfdruck erzeugte, oberflächlich kaum sichtbare Manipulation gehört mittlerweile zum festen Instrumentarium bei politischen und wohl auch kommerziellen PR-Kampagnen. Auf Social Bots sollen Parteien verzichten, regte kürzlich Bundeskanzlerin Merkel an. Die AfD winkt ab: Social-Media-Tools seien gerade für junge Parteien wichtige Instrumente, um die Positionen der AfD unters Volk zu bringen. Inzwischen ist der Bundestag alarmiert, berichtet der Spiegel: Ein Büro für Technikfolgenabschätzungen soll erste Ergebnisse vorstellen, welche eventuellen gesellschaftlichen Gefahren von Social Bots ausgehen.

Die manipulierte Information und automatisiert gestreute Meinung für die Masse bedrohen mittlerweile sogar jene Digitalriesen, die ohne Internet nicht entstanden wären. Amazon geht gegen bezahlte Gefälligkeitsrezensionen vor. Google will mit einer neuen Funktion »Faktencheck« in seiner News-Suche Lüge von Wahrheit unterscheiden und kenntlich machen.

Demokratische Gemeinwesen achten die Freiheit des Wortes, zwangsläufig wohl auch dann, wenn Maschinen für Menschen sprechen. Wie lange aber können sich Demokratien gegen subtile Formen der Meinungsmanipulation wehren? Noch schafft es Künstliche Intelligenz nicht, einen Egomanen mit narzisstischer Persönlichkeitsstörung zum US-Präsidenten zu krönen. An der Technologie scheitert es in diesem Fall nicht.

Martin Fryba
CRN-Chefredakteur