Künstliche Intelligenz bei Facebook: Gescannte Psyche gegen den Suizid

Facebook will mit Künstlicher Intelligenz Suizidverdächtige aufspüren und ihnen helfen. Eine Generalüberwachung des Gemütszustands wirft viele Fragen auf. Mehr als pauschale Technologiegläubigkeit hört man vom Silicon Valley-Unternehmen nicht.

Rund 10.000 Menschen jährlich nehmen sich in Deutschland das Leben, das sind drei Mal so viele Personen, wie im Straßenverkehr umkommen
(Foto: Antonioguillem/Fotolia)

Schrillen bei Facebook künftig die Alarmglocken, wenn ein Nutzer den Satz »Heute bin ich sehr traurig« postet oder auf eine Frage in seiner öffentlichen Chronik, wie es ihm gehe, nicht reagiert? Steht gar die Polizei vor der Türe, wenn ein junger Mensch bei Facebook nach einer Phase sehr reger Kommunikation plötzlich die Interaktion mit seinen Freunden einstellt? Man weiß es nicht, denn so genau teilt Facebook nicht mit, wie seine Suizid-Prävention funktioniert. Nur so viel: Man ist stolz auf seine Algorithmen.

Dystopische Phantasien weckt Facebook allemal, wenn es den Gemütszustand seiner Mitglieder automatisiert überwacht. Auf derlei Kritik reagiert das Unternehmen gewohnt beschwichtigend: Bei allen Ängsten vor den Gefahren Künstlicher Intelligenz in der Zukunft sei es gut, sich daran zu erinnern, dass Künstliche Intelligenz heute schon dabei hilft, das Leben von Menschen zu retten, sagte Facebook-Chef Mark Zuckerberg anlässlich der Einführung eines Suizid-Warnsystems beim weltgrößten Sozialien Netzwerk.

Sein Zwischenfazit: In nur einem Monat hätten die »Tools« bereits Warnsignale aufgespürt, so dass Facebook in mehr als 100 Fällen von Suizidverdacht binnen Minuten erste Hilfe leisten konnte.

Einmal mehr ist Facebooks CEO fest davon überzeugt, dass Technologie alle Probleme der Menschheit zu heilen imstande sei - einschließlich Schutz vor den Folgen psychischer Ausnahmezustände. Kritiker äußern Bedenken, und das nicht nur aus medizinischer Sicht.

Facebook scannt automatisiert den Gemütszustand seiner Nutzer und schreitet ein, wenn sein auf Basis von Künstlicher Intelligenz arbeitendes System Hinweise auf Selbsttötungsabsichten erkennt. Ein weltweit operierendes Facebook-Team arbeite rund um die Uhr und in enger Zusammenarbeit mit nationalen Organisationen wie Telefonseelsorgen, schreibt Facebook-Chef Zuckerberg. Diese sollen in konkreten Fällen eingeschaltet werden oder erhalten Selbsthilfe-Materialien sowie Kontaktadressen. Welche Kriterien dem Algorithmus von Facebook zugrunde liegen, verrät das Unternehmen nicht. Die Vorstellung, Facebook scanne weltweit seine Mitglieder auf deren Gemütszustand, löst selbst im so fortschrittsgläubigen Silicon Valley Befremdung aus.

Facebook bleibt hier wie immer intransparent, Bedenken wegen missbräuchlicher Nutzung werden nicht diskutiert. Von kritischen Stimmen lässt sich CEO Zuckerberg nicht beirren: »Wenn wir mit Hilfe von KI Menschen dabei helfen können, für ihre Familien und Freunde da zu sein, dann ist das ein wichtiger und positiver Schritt nach vorne«, rechtfertigt er die Suizid-Prävention.

Übersicht