Fühlst du dich sicher? Facebooks Beunruhigungs-Check

Als ich das erste Mal von Facebooks Safety Check Feature hörte, fand ich es eine großartige Sache. Das war zu einer Zeit, als es nur bei Naturkatastrophen eingesetzt und von einem Team betreut wurde. Es schien eine praktische Möglichkeit zu sein, mehrere Menschen zugleich übersichtlich über dein Wohlbefinden zu informieren, auch wenn Handynetze zusammenbrachen.

Ranking von menschlichem Unglück

Als Facebook dazu überging, den Safety Check auch für Terroranschläge einzusetzen, kam es in die Kritik, dass hier eine US- und EU-zentrische Wertung von Menschenleben stattfände, denn das Feature war zwar beim Anschlag in Paris aktiviert worden, aber nicht am Tag zuvor bei dem Anschlag in Beirut. Damals begründete Zuckerberg das damit, dass sie bis Paris das Tool nur für Naturkatastrophen eingesetzt hätten, und Beirut eben einen Tag vor dieser Ausweitung geschah.

Bereits damals, November 2015, wurde von vielen in den Comments jedoch trotzdem beklagt, dass diese Begründung nicht erkläre, warum der Safety Check in einem Gebiet wie Aleppo auch nach Paris nicht geschaltet wurde. Es wurde von manchen vermutet, dass dort ein anderer Schwellenwert für menschliches Unglück angelegt wurde. Auch die Journalistin Domenika Ahlrichs erwähnt in einem Interview für Wired/DetektorFM nach dem Anschlag in Berlin, dass sie den Safety Check für sich selbst in Berlin als seltsam unangemessen empfand, gerade auch weil die Tage vorher die Zerstörung von Aleppo die humanitäre Katastrophe war, die alle beschäftigte und das Feature für die Menschen dort nicht freigeschaltet worden war. In diesselbe Richtung ging die Kritik der Journalistin Molly McHugh in einem Text darüber, wann Facebook eins seiner Beileids-Flaggen-Avatar-Features freischaltete und was das auch für Kontroversen unter Usern nach sie zog: “Facebook has put itself in the business of ranking human suffering, and that’s a fraught business to be in. Facebook is built on ranking things that matter and how much, like which BuzzFeed quizzes you see in your News Feed or which friends’ photos show up the most. But it’s deeply uncomfortable—disturbing, really—when that same idea is applied (even with what I have to imagine are different metrics) to disaster and death.”

Nun, etwas als flächendeckende Gefährdung von Menschenleben einzustufen, das ist keine Entscheidung, um die man irgendjemanden beneiden würde, da sie komplex ist und eine große Verantwortung daran hängt. Menschen verhalten sich anders, oft gefährlich irrational, wenn sie in Panik geraten, Angst haben, deswegen wird bei Falscheinschätzungen die Presse oder Regierungsbehörden auch auf Schärfste kritisiert. Und bei ihnen lag lange das Monopol über weitreichende Meldung und Einordnung von Katastrophen. Die Entscheidungen fallen da auch durchaus verschieden aus, so waren die behördlichen Katastrophen-Warn-Apps KatWarn und Nina meines Wissens z.B. für Berlin nicht aktiviert, in München schon. Daneben informieren sich inzwischen auch viele nicht mehr direkt auf Medienwebsites oder TV Nachrichten, sondern über Social Media.

Katastrophen verstehen via Social Media

Ich nutze am liebsten Twitter. Anders als wenn ich eine Nachrichten- oder behördlichen Meldung 1:1 als Information akzeptiere, funktioniert das Verstehen einer Katastrophe oder eines Anschlags auf Social Media anders. Auf Twitter kann ich via meiner Listen-Timelines oder auch eines Hashtags recht schnell ein Bild der Lage herausfiltern. Aus einer wilden Mischung von Tweets von Journalist*innen, Polizei, Augenzeug*innen, Politiker*innen und einem Haufen Menschen, die das Ereignis einzuschätzen versuchen, und mit Retweets und Kommentaren in einer Art Hive Mind Sachverhalte verifizieren, aber sich auch Zuspruch spenden, sich beruhigen, sich mitteilen welche Accounts oder Hashtags gerade Wichtiges beitragen, oder auch sich zu warnen, vor Gefahr ebenso wie vor dem Weitertragen von möglichen Falschmeldungen – daraus kristallisiert sich ein Bild der Ereignisse.

Auf Facebook funktioniert das nicht so gut, schon allein weil die Timeline nicht chronologisch und auch zu stark gefiltert ist, um für Echtzeitereignisse zu taugen. Ich bekomme zum Beispiel regelmäßig Postings über eine Veranstaltung erst einen Tag zu spät in meinen Newsfeed gespült. Aber so im Groben ist Facebook darin besser geworden, inzwischen auch zeitnah eine Mischung aus privaten Postings und News zu einem Ereignis in meinen Newsfeed durchzulassen, durch die sich ein grobes Bild des Geschehens machen lässt. Mit dem Schritt zum Aktivieren des Safety Checks allerdings, wenn es mit Push-Nachrichten aktiv Menschen über eine Katastrophe informiert, macht Facebook den Schritt zu einer Autorität, die sich über den Newsfeed erhebt und wird zu einer Mischung aus Social Tool, Nachrichtenmedium und Katastrophenwarndienst.

Mischung aus Social Tool, Nachrichtenmedium und Katastrophenwarndienst

Was für einen Effekt hat das? Als ich zwischen zwei Tassen Feuerzangenbowle und gemütlichen Gesprächen am Abend des Anschlags von Berlin einen Blick auf Twitter warf, fand ich die oben beschriebene Mischung von Tweets vor und hatte schnell die Information: was passiert war, grobe Opferzahlen, dass es noch keine Einordnung als Terroranschlag gab. Zu diesem Zeitpunkt hätte es auch ein Unfall sein können. Als ich Facebook aufrief, begrüßte mich dagegen die Meldung dass 138 meiner Freund*innen bei einem Anschlag draufgegangen sein könnten. Das versetzte mir – trotz des Wissens von Twitter her – schon mal eben einen ganz schönen Adrenalinstoß. WTF?! Und ich fand auch keine Option, um es ausschalten zu können. Von den 138 meiner Freund*innen, die Facebook (zum Teil fälschlicherweise) in Berlin verortet hat, sind bis heute gerade mal 67 als “safe” markiert. Was bringt mir so ein Tool? Soll ich panisch alle 67 anschreiben, ob sie unter den 12 Toten waren? Und ging es dem Rest auch wirklich gut, denn: Personen können auch von anderen als “safe” markiert werden. Jemand berichtete auch, dass sie, als sie sich als “Not in the area” markierte, als “Location unknown” gelistet wurde – auch nicht gerade beruhigend, da es als “gilt als vermisst” verstanden werden kann.

Es war nicht nur die zu diesem Zeitpunkt noch lange nicht von offiziellen Quellen bestätigte Einordnung als “Anschlag”. Es war auch das Charakteristikum des Social Tools, das mich störte, denn das hat eben einen anderen Fokus als Nachrichten: Es macht dich zum Zentrum des Ereignisses, es ist personalisiert. Wo ich auf Twitter Solidarität mit Fremden empfinde, ich mich dort gerade in solchen tragischen Momenten von einem Gemeinschaftsgefühl aufgehoben fühle, schafft es Facebook immer wieder mit seiner Art der Personalisierung das unmöglich zu machen, Brüche zu den Menschen und in einem gemeinsamen Erleben zu schaffen. Sei es durch die Filterung, die zeitlich versetzte Postings bringt, oder sei es, indem es bei special Features von Memories bis zu Safety Check mein Erleben so sehr ins Zentrum stellt, und bei letzterem in der Form, mir eine große Auswahl meiner Freund*innen als mögliche Terroropfer vor den Latz zu knallen.

Und genau das tut es: es wirkt wie ein Nachrichtenmedium, das vom Schlimmstmöglichen ausgeht. Es erinnerte mich daran, wie ein viel verbreiteter Tweet am nächsten Tag zwei Zeitungstitelseiten nebeneinander stellte:

Facebooks Safety Check war sowas wie die BILDZeitung unter den Social News.

Wie kam es zu der Einordnung als Anschlag (Erst hieß es “Anschlag”, dann “Gewalttat”, dann “Vorfall” – inzwischen wieder “Anschlag”.), obwohl die offiziellen Behörden das noch nicht bestätigt hatten? Nun, bis vor kurzem hatte Facebook ein Team von Menschen, die einen Safety Check erst freischalten mussten. Inzwischen aber haben wir es mit einer automatisierten Auslösung zu tun, zu der Patrick Beuth in der ZEIT die Facebook-Sprecherin zitiert: “Stojanow sagt, sobald bestimmte Begriffe wie Feuer, Erdbeben oder auch Anschlag in einer Region so häufig von Facebook-Nutzern gepostet werden, dass sie einen Schwellenwert überschreiten und die entsprechende Nachricht auch von externen Dritten verbreitet wird, denen Facebook vertraut, löst der Safety Check automatisch aus. Diese Dritten können zum Beispiel lokale Medien sein.” Von menschlicher Hand wird bei Facebook dann erst nachgebessert, wenn Nachrichtenmedien Genaueres berichten, schreibt Chris Köver im Wired, und ergänzt: “Die Mühe, Angaben selbst bei den Primärquellen nachzuprüfen, in diesem Fall der Berliner Polizei, macht sich Facebook jedoch nicht.” Offensichtlich wurde nicht mal auf der Facebookseite der Berliner Polizei nachgelesen. So kam es denn zu chaotischen Informationen: Im Falle Berlins musste sogar der Ort nachgebessert werden, anfangs stand “Berlin-Heinersdorf” im Safety Check.

Einen anderen Fall gab es vor ein paar Tagen und auch er zeigte, dass eine Verifizierung aus guten Gründen zur journalistischen Verantwortung gehört: Facebook gab einen falschen Safety Check wegen einer großen Explosion im Stadtzentrum von Bangkok heraus. Basis dafür waren wohl ein Demonstrant, der kleinere Böller auf ein Regierungsgebäude warf und eine Fake-Newsmeldung, die ein BBC-Video von einer Explosion aus dem Vorjahr verwendete. Als Facebook den Safety Check – automatisiert – ausgelöst hatte, markierten sich unter anderem auch Journalist*innen, da sie Facebook als Quelle ernst nahmen. Da sie wiederum zu den Personengruppen gehören, die anderen als Verifizierungsinstanz dienen, bestätigten sie damit versehentlich die Falschmeldung noch zusätzlich. Ein anderes Mal wurde für ganz Chicago wegen eines “violent crime” der Safety Check ausgelöst. Dann wieder war es ein längst gelöschtes Feuer in Dallas, dass das Feature auslöste.

Einerseits werden hier also klassische öffentliche Informations-Infrastrukturen von Facebook mit einem eigenen Feature durchbrochen, andererseits übernimmt Zuckerberg keine Verantwortung für Fehler. Für so ein soziales Herumexperimentieren im learning by trial and error-Stil am lebenden Objekt wäre weder für Nachrichtenmedien noch für staatliche Behörden akzeptabel, aber bei Facebook nehmen es viele kritiklos hin. Heuer war überhaupt das erste Mal, dass Zuckerberg von seinem Standpunkt abwich, dass sie ja nur neutrale Technologie schaffen würden, durch die Information fließe: Er hat einen Bruchteil von Verantwortung an der Verbreitung von Fake-News eingeräumt.

Die Korrektur von Falschmeldungen, egal ob sogenannte Fake-News oder Fehler beim Safety Check übernimmt jedes Mal die Presse, und Facebook gibt nur widerwillig Kommentare dazu ab. Von guter Absicht, von Neutralität dank Automatisierung und von ständiger Verbesserung wird dann geschwatzt – und die User seien quasi selber schuld, denn der Safety Check wird “initiated by people … and not by Facebook itself”. Den wenigsten Usern ist allerdings überhaupt bewusst, dass sie durch ein Posting, in dem sie den Verdacht äußern, dass in ihrer Nähe ein Anschlag stattgefunden haben könne, auf die Auslösung eines Safety Check einwirken. Und, ganz soziales Datenexperiment, das Facebook auch ist, zählt die uninformierte spontane Meinung mehr als die informierte, sich einer Verantwortung bewussten, und auf einen Kontext hin formulierte Äußerung. (vgl. dazu auch Zuckerbergs Utopie von Telepathie als “ultimate communication technology”, die William Davies in einem Artikel für den Atlantic in Zusammenhang mit einer Philosophie des Neuromarketing bringt: “People lie, brains don’t. Observe what people really feel, the thinking goes, rather than what they say they feel.”)

Die User als uninformierte Versuchskaninchen und als eigentlich Verantwortliche

Die User sind also für Facebook gleichzeitig verantwortlich andererseits aber uninformierte Versuchskaninchen für das Große und Ganze, für die Optimierung von Facebook als sozialer Infrastruktur unserer Gesellschaft. Facebook als Plattform für soziale Experimente machte 2014 Schlagzeilen, als sie Usern über einen begrenzten Zeitraum nur positive oder nur negative Meldungen in ihrer Timeline zeigten, um zu testen, ob Emotionen ansteckend seien. Ethisch wäre das sonst ziemlich fragwürdig, aber im Falle von dem sich gern als humanitär darstellenden Facebook kam es denn schon auch zu solchen Verteidigungen: “it’s worth keeping in mind that there’s nothing intrinsically evil about the idea that large corporations might be trying to manipulate your experience and behavior. Everybody you interact with–including every one of your friends, family, and colleagues–is constantly trying to manipulate your behavior in various ways. … So the meaningful question is not whether people are trying to manipulate your experience and behavior, but whether they’re trying to manipulate you in a way that aligns with or contradicts your own best interests.“

Trotz aller Faszination und Liebe zu sozialen Netzwerken, oder eher gerade deswegen, stehe ich da aber schon ganz hinter Zeynep Tufekci, die in “Engineering the Public” schreibt: “resignation to online corporate power is a troubling attitude.“ Gerade weil ich diese Infrastrukturen viel nutze, will ich auch wissen, was für Gedanken hinter einem Design stecken könnten, warum sie wie funktionieren usw. Ich wünschte mir auch hierzulande deswegen mehr gute Texte von Webtheoretiker*innen, die Soziologie, Datenwissenschaft und Design kritisch zusammendenken und damit diese neuen Infrastrukturen für die Öffentlichkeit sezieren. Gerade der Safety Check ist ja auch ein gutes Beispiel dafür, dass es längst nicht (mehr) ‘nur’ um Kaufanreize geht, und da lohnt sich wieder mal die Frage: Warum greift Facebook immer wieder zu Automatisierung, wenn diese immer noch so fehleranfällig ist und nicht komplex genug arbeitet?

Typischer Facebook Move: Auf Kritik an Neutralität mit Automatisierung reagieren

Ich erinnerte mich an die Geschichte mit den Trending News, einem Feature, das bei mir nur manchmal eingeblendet wird, in den USA aber wohl für alle geschaltet wird, und das die wichtigsten Themen, die User derzeit bewegen, anzeigt – im Idealfall also sowas wie ein Nachrichtenticker. Als Michael Nunez enthüllte, dass regelmäßig “conservative” Meldungen unterdrückt wurden und die Auswahl der Trending News nicht neutral sei, reagierte Facebook mit der Entlassung der letzten 18 redaktionellen Trending-Mitarbeiter*innen und automatisierte den Auswahlprozess, d.h. es gibt nur noch ein Team, das den Auswahlalgorithmus verfeinert, aber keines mehr, das die ausgewählten Meldungen auf Wahrheitsgehalt oder Qualität prüft. Auch bei diesem Facebook Feature funktionierte das ganz und gar nicht gut, sondern führte dazu, dass innerhalb kürzester Zeit übelste Falschmeldungen von Clickbait-Websites in den Trending Topics auftauchten, sowie Artikel Themen zugeordnet wurden, mit denen sie nichts zu tun hatten.

Dieser Rückzug auf Automatisierung statt menschlichem Urteil ist typisch für Facebook, wann immer es dafür kritisiert wird, dass es keine neutrale Plattform sei. Auch als es dafür kritisiert wurde, dass die Inhalte, die ein User im Newsfeed sehen würde, durch das personalisierte Aussortieren eine Filterbubble schaffen würden, wurde sich hinter dem angeblich neutralen Algorithmus versteckt, den die User doch selbst mit dem füttern, was sie sehen wollen: “It’s not that we control NewsFeed, you control NewsFeed by what you tell us that you’re interested in,” so ein Facebook-Mitarbeiter. Aber wie Jay Rosen, Journalismus Professor und Medienkritiker, schreibt: “It simply isn’t true that an algorithmic filter can be designed to remove the designers from the equation.”

Behauptete Neutralität soll Verantwortung auf User schieben

Nathan Jurgenson, Internettheoretiker und Soziologe, hat das noch genauer ausgeführt: “conceptually separating the influence of the algorithm versus individual choices willfully misunderstands what algorithms are and what they do. Algorithms are made to capture, analyze, and re-adjust individual behavior in ways that serve particular ends. Individual choice is partly a result of how the algorithm teaches us, and the algorithm itself is dynamic code that reacts to and changes with individual choice. Neither the algorithm or individual choice can be understood without the other.”

Nichtsdestotrotz soll die Verantwortung mit einer behaupteten Neutralität hin zu den Usern verschoben werden: “To ignore these ways the site is structured and to instead be seen as a neutral platform means to not have responsibility, to offload the blame for what users see or don’t see onto on the users. The politics and motives that go into structuring the site and therefore its users don’t have to be questioned if they are not acknowledged.”

Auch im Hinblick auf Safety Checks ist das zu beobachten, wie Journalistin Bettina Chang schreibt: “Facebook emphasizes that the community-generated alert is an automatic feature that doesn’t imply any sort of judgment on the event, but rather relies on the reporting of Facebook users themselves and their friend networks.” Klar, und wenn alle User immer Facebook über ihren richtigen Aufenthaltsort informieren würden und nichts Sarkastisches, Vermutetes, oder gar poetische Sprache posten würden, nie etwas ironisch liken würden, also wenn alle User sich so verhalten würden, wie Facebook “Ehrlichkeit” oder “Authentizität” definiert, dann würde alles auf Facebook bestimmt auch viel besser funktionieren. Der Versuch der Verantwortungsverschiebung auf die User ist letztlich nur, wie Jurgenson sagt, ein “ideological push by Facebook to downplay their own role in shaping their own site”.

Beim Safety Check Feature ist wie gesagt gerade ein ähnlicher Ablauf wie beim Trending Feature zu sehen: Ursprünglich wurde es von einem Team von Menschen auf der Basis von “Medienquellen und Polizeiberichten” aktiviert. Nachdem Kritik an den Auswahlkriterien dafür, was als Katastrophe galt, laut wurde, zog Facebook das Team ab, automatisierte den Prozess, und behauptete, damit hätten sie sich selbst als beeinflussender Faktor aus der Gleichung genommen. Damit läge die Verantwortung bei Usern, die auf Facebook ängstliche Vermutungen posten, das etwas passiert sein könne, oder Usern, die Nachrichtenmeldungen dazu posten, und bei “Drittquellen”, die, wie beim falschen Alarm in Bangkok, schon auch mal sogenannte “Fake News”-Websites sein können.

In Sachen Verantwortlichkeit bin ich da aber ganz bei Chris Kövers Resümée im Wired: “egal, wie viele Nutzer auf Facebook zu einem frühen Zeitpunkt schon über einen ‘Anschlag’ diskutierten, diese Bezeichnung kann von Facebook nicht einfach übernommen werden. Wenn ein Feature, dessen erklärte Absicht es sein soll, Menschen in einem KrisenmomentZeiten der Krise zu beruhigen, stattdessen Millionen von Pushmitteilungen auf der ganzen Welt versendet, in denen von einem Anschlag die Rede ist, lange bevor dies bestätigt ist, dann dient das nicht der Beruhigung, sondern der Panikmache.” Und das kann in solchen Momenten überhaupt erst Gefahr hervorrufen. Dazu noch ein Beispiel für eine Falschauslösung: Facebook löste den Safety Check bei einer friedlichen Black Lives Matter Demonstration ein und kennzeichnete damit die Protestveranstaltung als viel gefährlicher, als sie war. In einer bereits geladenen Atmosphäre ist so etwas alles andere als deeskalierend, und es kann auch Menschen so verängstigen, dass sie darauf verzichten, ihr Demonstrationsrecht wahrzunehmen.

Mehr Verantwortung fordern

Es ist dabei völlig egal, ob ein Feature wie der Safety Check durch einen Algorithmus oder aus menschliche Einschätzung heraus ausgelöst wird – wir sollten von Herstellern von Tools, die solch eine zentrale gesellschaftliche Rolle einnehmen wollen, mehr Verantwortlichkeit fordern. Wir sollten mehr Bewusstsein dafür schaffen, dass solche Dinge auch anders funktionieren könnten und nicht immer einfach nur die treudoofen Crash Test Dummies spielen, die einem vermeintlich geschenktem Gaul nicht ins Maul schauen wollen. Gut gemeint ist nicht gut genug, vor allem, wenn sich die Zuckerbergsche Definition von “gut” eventuell gar nicht mit deinem Verständnis davon deckt. Und die Kritik kommt langsam voran. Charlie Warzel hat heute einen Jahresrückblicksartikel veröffentlicht, der 2016 als das erste Jahr sieht, in dem Menschen so richtig bewusst wurde, dass es sich bei all den digitalen Plattformen um Infrastrukturen handelt, die unser Leben beeinflussen und nicht nur um irgendwas Nicht-Reales im Netz, das sich jederzeit ausschalten ließe, und dass es auch das erste Jahr sei, indem große Plattformen wie Facebook, Uber, Twitter oder AirBnB mal soweit zur Verantwortung gezogen wurden, dass sie es nicht mehr einfach so an sich abprallen ließen: “Until recently, Facebook’s unofficial engineering motto was “Move fast and break things” — a reference to tech’s once-guiding ethos of being more nimble than the establishment. “Move fast and break things” works great with code and software, but 2016’s enduring lesson for tech has proven that when it comes to the internet’s most powerful, ubiquitous platforms, this kind of thinking isn’t just logically fraught, it’s dangerous — particularly when real human beings and the public interest are along for the ride.”

In diesem Sinne, werte Leser*innen, auf ein kritisches und überhaupt ganz großartiges neues Jahr!

*klopft sich auf die Schulter, weil sie doch noch ein Blogposting in 2016 geschafft hat und macht sich auf ins Raclette-/Fondu-/Sekt-Getümmel* 🐾🐾🐾🥂

Flattr this!

6 comments on “Fühlst du dich sicher? Facebooks Beunruhigungs-Check

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.