Facebook setzt clevere Software ein, die Selbstmordgefahr erkennen soll

(Bildquelle: infoticker)

Intelligenter Algorithmus erkennt Warnzeichen in Postings und Video-Streams der Mitglieder.

Wenn es darum geht, die eigenen Mitglieder vor einem möglichen Selbstmord abzuhalten, setzt Facebook ab sofort auch auf tatkräftige Unterstützung durch Künstliche Intelligenz (KI). Laut dem sozialen Online-Netzwerk durchforstet der intelligente Algorithmus alle Postings und sogar Live-Video-Streams auf der Seite nach auffälligen Begriffen oder Kommentaren von Freunden, die die Vermutung nahelegen, dass jemand tatsächlich an Suizid denkt. Vorläufig ist das Tool aber nur in den USA im Einsatz.

Als Schutzmassnahme zu wenig

"Es gibt immer wieder Fälle, wo ich von Bekannten kontaktiert werde, weil jemand auf Facebook Anzeichen für einen bevorstehenden Selbstmord entdeckt hat und bei uns anfragt, wie er damit umgehen soll", so Claudius Stein, Ärztlicher Leiter des Kriseninterventionszentrums Wien gegenüber "pressetext". Das sei ein Problem, mit dem generell alle Social-Media-Portale zu kämpfen haben. "Ein technisches Hilfsmittel einzusetzen, um rechtzeitig eindeutige Warnsignale zu erkennen, ist sicher sinnvoll. Als effektive Schutzmassnahme gegen Suizid ist das aber natürlich zu wenig", so Stein.

Laut Facebook stellt der Software-Check nur die erste Stufe im eigenen Massnahmenkatalog dar. Wenn der Algorithmus Anzeichen für eine Selbstmordgefährdung findet, befasst sich ein Mitarbeiter des eigenen Review-Teams genauer mit dem Fall. Erst danach wird versucht, den Betroffenen zu kontaktieren. "Wie am besten vorzugehen ist, hängt immer von der Situation ab. Um das abzuschätzen, müssten die Facebook-Mitarbeiter eine umfassende psychologische Schulung erhalten. Wichtig ist, dass man so schnell wie möglich einschreiten kann, wenn wirklich Gefahr im Verzug ist", betont der Experte.

14-jähriges Mädchen aus Miami

Dass das Thema Suizidprävention nicht auf die leichte Schulter genommen werden sollte, hat Facebook bereits vor langer Zeit akzeptieren müssen. Immer wieder sind im Laufe der vergangenen Jahre nämlich Fälle bekannt geworden, bei denen Mitglieder der Online-Community ihren Selbstmord über das Portal angekündigt oder teilweise sogar öffentlich inszeniert hatten. Erst im Januar hatte ein 14-jähriges Mädchen aus Miami seinem Leben ein tragisches Ende gesetzt und das Ganze per Live-Video-Stream dokumentiert.

"Unser Ziel ist es, in so einem Fall, den betreffenden Usern schon während der laufenden Übertragung zu helfen und nicht erst zu warten, bis jemand das vollständige Video kontrolliert hat", zitiert "BBC News" Facebook Product Manager Vanessa Callison-Burch. Das Vorgehen sei aber prinzipiell sehr heikel. "Einige meinen, wir sollten den Stream in einem derartigen Fall sofort stoppen. Andere Experten haben aber klargemacht, dass das auch nicht sinnvoll ist, weil es uns die Möglichkeit nimmt, die Hände auszustrecken und Hilfe anzubieten", so Callison-Burch.

Artikelfoto: Counselling (CC0 Public Domain) - (Symbolbild)