Künstliche Intelligenz bei Facebook: Gescannte Psyche gegen den Suizid

Facebook will mit Künstlicher Intelligenz Suizidverdächtige aufspüren und ihnen helfen. Eine Generalüberwachung des Gemütszustands wirft viele Fragen auf. Mehr als pauschale Technologiegläubigkeit hört man vom Silicon Valley-Unternehmen nicht.

Suizid-Gesamtkataster

In Europa, wo strengere Datenschutzbestimmungen herrschen, greift Facebooks automatisierte Suizid-Hilfe übrigens nicht. Angeblich lösche Facebook die algorithmisch erstellten Einschätzungen nach 30 Tagen. Daten aus Vorfällen, bei denen Behörden eingeschaltet wurden, würden in einem separaten System gespeichert und würden nicht mit den Nutzerdaten verknüpft, schreibt das Portal Netzpolitik.

Geht es Facebook hier wirklich nur um medizinische Prävention? »Solange wir die Algorhytmen nicht kennen, können wir dazu seriös nichts sagen«, sagt Georg Fiedler. Der Diplompsychologe war bis zu seinem Ruhestand, langjähriger Sekretär des Nationalen Suizidpräventionsprogramms für Deutschland. Er hält es für ethisch problematisch in diesem Zusammenhang anlasslos Daten zu sammeln und somit »ein Gesamtkataster der Weltbevölkerung im Hinblick auf suizidale Befindlichkeiten zu erstellen«, wie er CRN gegenüber sagt. Würde Facebook betroffenen Menschen Hinweise generell im Sinne eines »Präventive Advertising« einblenden, wohin sie sich wenden können, sei das ein guter Schritt. Ein totalüberwachtes Medium mit der Folge drohender Vor-Ort-Einsätze würden suizidgefährdete Menschen aber eher meiden. »Sie wollen mit jemandem sprechen und nicht plötzlich die Polizei vor ihrem Haus stehen haben. Autonomie über ihr Leben zu haben, ist diesen Menschen oft wichtig«, sagt der Psychologe.

Was Facebook-CEO Zuckerberg beim komplexen medizinischen Thema Suizid freilich nicht sieht: Facebook will jedermanns Chronik eines (schönen) Lebens sein und ist womöglich nicht die gepriesene Digital-Lösung, sondern vielmehr das sehr reale Problem vieler Biographien. Zunehmende Vereinsamung in virtuellen Räumen und erst recht Mobbing sind vor allem bei jüngeren Facebook-Nutzern erhebliche Gefahren, die im Suizid enden können.

Daten von Mitgliedern, die freiwillig aus dem Leben geschieden sind, gibt Facebook beispielsweise an Eltern nicht heraus. Möglicherweise nicht nur aus Datenschutzgründen, sondern auch weil haftungsrechtliche Konsequenzen drohen könnten. Wer nämlich konkrete Hinweise auf einen bevorstehenden Suizid hat und nicht reagiert, kann sich nach deutschem und nationalem Recht vieler anderer Staaten wegen unterlassener Hilfeleistung strafbar machen.

Übersicht