Nie hatte ein Konzern so viel Macht. Facebook kümmert sich um Wahlen und führt ganze Länder an der Nase herum. Aber wenn es um Verantwortung geht, scheitert der Konzern an Kleinigkeiten – und an fragwürdigen Geschäftspraktiken.

Von April bis Mai dieses Jahres werden in Indien circa 900 Millionen Wahlberechtigte eine neue Regierung wählen. In Indonesien stimmen im April voraussichtlich knapp 200 Millionen Wähler über den neuen Kurs ihres Landes ab. Es steht am Scheideweg, der Religionsfrieden ist bedroht. In beiden Ländern gehen viele Erstwähler an die Urne, in Indonesien liegt das Durchschnittsalter unter 30 Jahren. In beiden Ländern setzt die Digitalisierung derzeit auf dem Land besonders dramatisch ein. Viele Menschen gehen also erstmals zur Wahl – und informieren sich gleichzeitig erstmals im Internet.

61 Prozent mehr gezielte Falschmeldungen

Indonesiens Bürger bilden eine der fünf am schnellsten wachsenden Internet-, Facebook-, oder Instagram-Nutzergruppen weltweit. Ihre Meinungsbildung vor der Wahl ist besonders gefährdet. Mafindo, eine Art gemeinnützige Organisation aus Jakarta, die gegen Falschnachrichten im Netz kämpft, schätzt, dass die Anzahl gezielt platzierter gefälschter politischer Inhalte im Netz allein zwischen Dezember 2018 und Januar 2019 um 61 Prozent nach oben geschnellt sei.

In Indien demonstrierten die sozialen Medien ihre Macht bereits im vergangenen Jahr bei einer Wahl im Landesteil Karnataka: Allein die beiden wichtigsten Parteien gründeten nach eigenen Angaben jeweils über 20.000 Chatgruppen im Kurznachrichtenprogramm WhatsApp; darüber erreichten sie jederzeit über 1,5 Millionen Unterstützer. WhatsApp ist in Indien und benachbarten Staaten besonders erfolgreich – und in der Weltregion wird es besonders drastisch missbraucht.

In Sri Lanka, Myanmar und Indien haben Fehlinformationen und manipulierte Nachrichten, die über WhatsApp oft millionenfach geteilt werden, zu Lynchmorden, Aufständen und Gewalt zwischen Anhängern unterschiedlicher Religionen geführt. Weil die Falschnachrichten in privaten Gruppen verbreitet werden, können sie öffentlich oft erst dann korrigiert werden, wenn es zu spät ist.

Das Schicksal von Milliarden Menschen in der Hand einer Firma

In beiden Ländern wird der Wahlausgang maßgeblich davon beeinflusst werden, welche Informationen die Wähler über Facebook, durch WhatsApp-Nachrichten oder auch auf Instagram erreichen. Alle drei Produkte gehören zu Facebook: Instagram kauften die Kalifornier im Jahr 2012 für eine Milliarde Dollar, WhatsApp zwei Jahre später für 19 Milliarden Dollar. Das Schicksal von weit über einer Milliarde Menschen in Asien, die Bevölkerung zweier Staaten liegt damit in weiten Teilen in der Hand einer einzigen Firma aus Menlo Park, Kalifornien.

Und damit in der Hand einer Firma, die sich erst in der vergangenen Woche vom Sicherheitsspezialisten Brian Krebs darauf hinweisen lassen musste, dass sie die Passwörter von bis zu 600 Millionen Nutzern unverschlüsselt als Text abspeicherte. In internen Systemen, auf die wiederum Tausende Angestellte der Firma zugreifen können. Das ist ein massiver Verstoß gegen das kleine Einmaleins der Datensicherheit. Jedes drei Wochen alte Startup mit 15 Mitarbeitern müsste sich für einen Anfängerfehler wie diesen kritisieren lassen. Facebook hat über 35.000 Mitarbeiter.

Die unmittelbare Zukunft von einem größeren Teil der Menschheit liegt damit auch maßgeblich in den Händen einer Firma, die es vor wenigen Tagen Hunderten ermöglichte, dem Mörder von Christchurch bei seiner Tat zuzuschauen. Und der es bis heute nicht gelingt, alle Versionen des Videos, das das Attentat zeigt, zuverlässig zu löschen.

Facebook steht vor Aufgaben, die zu den größeren in der Geschichte des Menschheit gehören. Und scheitert bereits an den Grundlagen des eigenen Geschäfts.

Ihre Relevanz streitet die Firma nicht ab. Im Gegenteil. Für die Wahlen in Asien eröffne man ein „Operations Center“ in Singapur, teilte Facebook mit. Ziel der Niederlassung: „election integrity“ – die Integrität von Wahlen sicherzustellen. Dazu schicke man Experten an den Rand des Südpazifiks, unter anderem aus den Bereichen „Bedrohungsintelligenz“, „Datenwissenschaft“, „Forschung“ und „Recht“. Diese bildeten, erklärt die Firma, eine weitere „Verteidigungslinie“ im Einsatz gegen „falsche Nachrichten und Fehlinformation, Hassrede, Wählerunterdrückung und Störung der Wahlen“.

Ein „Operations Center“ zur Europa-Wahl

Auch für Europa errichte man ein dezentrales „EU Operations Center“, erzählt die Facebook-Managerin Tessa Lyons bei einem Termin in Berlin. In Europa sind in diesem Jahr eine knappe halbe Milliarde Menschen dazu aufgerufen, das neunte Europaparlament zu wählen. Von mehreren Orten aus – darunter die Zentrale in Menlo Park und der Europasitz in Dublin – wolle man rund um die Uhr auffällige Entwicklungen verfolgen und gegebenenfalls reagieren.

Facebook übernimmt damit Aufgaben, die bislang typischerweise Staaten wahrnehmen. Die Firma ist zu einer Art supranationaler Organisation geworden. Mit Härte und Entschiedenheit greift sie rund um die Uhr und wie selbstverständlich in die zentralen und sensiblen Gefüge von Demokratien und Staaten auf der gesamten Welt ein: in Meinungsbildung und Wahlen, in die öffentliche Debatte und über ihre zahlreichen und ausgefeilten Möglichkeiten, Meinungen zu unterdrücken, in die immer wieder neu verhandelte Frage, was gesellschaftlicher Konsens ist. Erschüttert werden gesellschaftliche Strukturen, die im vierten Jahr nach der Flüchtlingskrise und im Angesicht steigender Zustimmungswerte für Populisten weltweit ohnehin unter Druck sind. Nicht nur in Deutschland.

Dabei verfügt Facebook über keine demokratische Legitimation. Gründer und Chef Mark Zuckerberg hält sich nicht mit trivialen Fragen wie jener der Passwortsicherheit auf. Er denkt groß. Und er geht davon aus, einen Masterplan für die Zukunft der gesamten Welt zu haben, Legitimation durch die eigene Macht und Idee. So sind erfolgreich Start-ups gegründet worden. Aber lassen sich so auch Gesellschaft und Demokratie digitalisieren?

An seine Tochter schrieb Zuckerberg zu deren Geburt im Jahr 2015 einen öffentlichen Brief: „Der technologische Fortschritt auf allen Felder soll dazu führen, dass du ein wesentlich besseres Leben haben wirst als wir. Wir werden unseren Teil dazu beitragen, dass es so kommt, nicht nur weil wir dich lieben, sondern weil wir eine moralische Verantwortung haben für alle Kinder der kommenden Generation.“ Misst man den Gründer an diesen Worten, hat er versagt, wie Eltern, die ihrem Kind Bier im Fläschchen verabreichen. Und zwar nicht nur bevor er seinen Brief schrieb, sondern auch noch, nachdem er seine guten Vorsätze öffentlich gemacht hatte. Ein Überblick.

Ein gesellschaftliches Experiment

Vor wenigen Tagen plädierte die amerikanische Senatorin Elizabeth Warren für eine Aufspaltung sehr großer Tech-Konzerne wie Amazon, Apple, Google und Facebook. Sie schaltete dafür Anzeigen auch auf Facebook. Es war ein weiterer Lackmustest zur Frage, wie weit Meinungsfreiheit auf Facebook reicht, zumal dann, wenn sie in eigener Sache ausgehalten werden muss. Facebook reagierte schnell: Warrens Anzeigen, die zu ihrer Kampagne für ihre Präsidentschaftskandidatur gehörten, verschwanden. Erst nach massiver Kritik veröffentlichte der Konzern Warrens Vorschlag erneut. Facebook teilt auf Anfrage mit, dass die Anzeigen gelöscht worden seien, weil sie das Logo von Facebook gezeigt hätten, nicht wegen der inhaltlichen Aussage.

Facebook demonstriert allerdings seit Jahren den Ehrgeiz, die Welt zumindest auf der eigenen Plattform im eigenen Sinn passend zu machen. So griffen Facebook-Mitarbeiter in der Rubrik „Trending News“, die offiziell von Algorithmen – also automatisiert – mit Texten von Journalisten bespielt werden sollte, händisch ein, um Texte mit konservativem Einschlag weniger stark zu verbreiten, als es die Software ohne Eingriff getan hätte. Nach einer Recherche der Website „Gizmodo“ sorgten Redakteure außerdem dafür, dass Nachrichten, die über Facebook selbst berichteten, nicht angezeigt wurden.

Sheryl Sandberg, Co-Geschäftsführerin von Facebook

Wenn die Kritik jenseits von Facebook zu laut wird, scheut sich Facebook auch nicht, externe Spezialisten einzuschalten, die wiederum im Auftrag der Firma zu fragwürdigen Methoden greifen dürfen. Zum Beispiel hat die Firma die amerikanische PR-Agentur Definers angeheuert. Ziel des Engagements: Kritiker gezielt zu diskreditieren, darunter den bekannten Milliardär George Soros. Er hatte Google und Facebook zuvor in einer Rede auf dem Weltwirtschaftsforum in Davos als „Gefahr für die Gesellschaft“ bezeichnet.

Sheryl Sandberg, Chefin für das operative Geschäft, sagte nach der Enthüllung in einem Fernsehinterview, sie habe „nichts von Definers gewusst“. Fünf Tage später ruderte sie zurück: „Ich habe eine kleine Anzahl an Mails bekommen, in denen Definers erwähnt war.“ Weitere Tage gingen ins Land. Dann berichtete die „New York Times“ über eine E-Mail von Sandberg, in der sie explizit verlangt hatte, dass Soros unter die Lupe genommen werden sollte. Trotz allem verteidigte Zuckerberg Sandberg. Sie führt Facebook bis heute mit ihm gemeinsam.

Manipulationen der öffentlichen Meinung sind Alltag

Manipulationen der öffentlichen Meinung sind Alltag bei Facebook, nicht nur wegen der Aktivitäten des Unternehmens selbst. Sondern auch, weil es der Firma allen „Operations Centern“ zum Trotz nicht gelingt, Attacken von Dritten auf die Meinungsbildung der Nutzer zu unterbinden. Was in Indien, Indonesien und auch der Europäischen Union in diesem Jahr zu passieren droht, hat in Amerika bereits Spuren hinterlassen.

Die Beeinflussung der amerikanischen Präsidentschaftswahlen im Jahr 2016 durch die russische Propagandaeinheit „Internet Research Agency“ auf Facebook ist mittlerweile wissenschaftlich analysiert. Forscher der Universität Oxford ziehen das Fazit, die USA seien von Russland aus über Facebook angegriffen worden; ein richtiggehender „Propagandakrieg“ sei gegen das Land und seine Bürger geführt worden.

Zwischen 2013 und 2018 haben rund 30 Millionen Nutzer von Facebook und Instagram Postings der Internet Research Agency geteilt, gelikt oder kommentiert. Die Strategie war ausgeklügelt: Schwarze Amerikaner wurden mit der Absicht adressiert, dass sie die Wahlen boykottieren oder um Misstrauen gegenüber den staatlichen Institutionen zu säen und zu empfinden. Rechtspopulisten wurden gezielt in ihren Ansichten bestärkt. Weder Facebook noch den Aufsichtsbehörden gelang es, die Attacken auf die öffentliche Meinung zu identifizieren und zu verhindern. Tausende mutmaßlich aus Sankt Petersburg publizierte Postings und Werbeanzeigen haben die Wahl von Donald Trump also maßgeblich beeinflusst, möglicherweise erst ermöglicht.

Die So-tun-als-ob-Strategie

Als Reaktion auf Kritik am Umgang mit Daten hält Facebook für die Nutzer die Möglichkeit bereit, eine „Kopie von deinen Facebook-Daten herunterzuladen“. So steht es im Menü der Website. Das klingt gut und wirkt fair – und neben der europäischen Gesetzgebung dürfte das auch der Grund sein, warum Facebook diese Möglichkeit anbietet. In der heruntergeladenen Datei aber sind mitnichten alle Daten enthalten, die Facebook über einen Nutzer gespeichert hat. Als der Datenschutz-Aktivist Max Schrems Facebook mit rechtlichem Druck dazu zwang, alle seine Daten zu übermitteln, erhielt er eine CD-ROM mit einem PDF-Dokument, das circa 1200 Seiten umfasste.

Darunter waren nach seinen Angaben selbst Daten, die Schrems auf Facebook gelöscht hatte. Offenbar hatte der Konzern die Daten nur als „vom Nutzer gelöscht“ markiert, aber nicht tatsächlich gelöscht – und somit zusätzlich gespeichert, was Schrems aus seinem digitalen Leben gern entfernt hätte. Und selbst auf der Scheibe dürften nicht alle Daten gewesen sein, die der Konzern von einem Nutzer wie Schrems gespeichert hält. Facebook teilt auf Anfrage mit, die herunterladbare Datei sei dazu gedacht, Nutzern „bedeutende und verständliche Informationen“ zu geben. Der Konzern tut nur so, als ob der Kunde die Hoheit über seine Daten erlangen könnte.

Das ist ein Prinzip, auf das man bei Facebook immer wieder stößt. Auch in einem besonders drastischen Fall, der in diesen Tagen viele Nutzer erzürnt, stellte sich zum Beispiel heraus, dass Facebook so tut, als ginge es um die Sicherheit der Nutzer, tatsächlich aber nur noch mehr Daten abgreifen möchte – in diesem Fall die Telefonnummer. Die Nummer spielt für Datensammler eine besonders wichtige Rolle, weil sie in aller Regel einem Menschen und seinem wichtigsten Gerät, dem Handy, klar zugeordnet werden kann.

Viele Menschen überlegen sich deshalb zweimal, ob sie ihre Nummer einem Konzern wie Facebook geben möchten. Die Firma wiederum bietet ihren Nutzern an, sich beim Anmelden auf der Facebook-Seite oder in der App nicht nur mit einem Passwort zu identifizieren, sondern zusätzlich mit einem zweiten Gerät, zum Beispiel dem Handy. Über dieses kann Facebook bei der Anmeldung Kontakt aufnehmen, um zu prüfen, ob derjenige, der sich anmeldet, auch wirklich der ist, der er vorgibt zu sein. Dieses Verfahren heißt etwas umständlich Zwei-Faktor-Authentifizierung. Es ist besonders sicher. Viele Nutzer vertrauen darauf und geben Facebook nur zum Zweck dieser Kontaktaufnahme ihre Telefonnummer.

Ganze Länder an der Nase herumgeführt

In diesen Tagen konnten Nutzer allerdings feststellen, dass Facebook ihre Handynummer, die sie „nur für Sicherheitszwecke“ und nur an der von Facebook dafür vorgesehenen Stelle eingegeben haben, auch für ganz andere Zwecke verwendet. Sie können nun zum Beispiel von Dritten auf Facebook über ihre Telefonnummer gefunden werden. Auf Nachfrage schickte Facebook eine ausweichende Antwort, aus der nicht hervorgeht, warum der Konzern Daten, die die Kunden ausschließlich aus Sicherheitsgründen abgeben, für andere Zwecke missbraucht.

Erlebnisse wie dieses verdeutlichen die So-tun-als-ob-Strategie. Mit ihr führt der Konzern nicht nur einzelne Nutzer, sondern auch Politiker, Aufsichtsbehörden und ganze Länder an der Nase herum. Ein Beispiel: Für arme Länder wie Angola, Ghana, den Tschad, aber auch ländliche Regionen in Indien entwickelte Facebook das Programm internet.org, mit dem technologisch unterentwickelte Orte ans Netz angebunden werden sollten. Als sich in Indien herausstellte, dass – anders als der Name „internet.org“ es suggerierte – die Firma die Bevölkerung nicht mit dem Netz, sondern nur mit Facebook verbinden wollte, kam es zu Protesten. Manchmal kommt Facebook mit „nur so tun als ob“ nicht durch.

Relativ oft allerdings schon: Vor dem amerikanischen Senat sprach sich Zuckerberg für „Netzneutralität“ aus, also das Prinzip, dass im Netz alle Angebote gleich behandelt werden sollten. Egal, ob ein Nutzer die Facebook-Website lädt, einen privaten regierungskritischen Blog oder das Angebot eines kleinen Start-ups, alle Daten sollen gleich schnell und in gleicher Qualität bei ihm ankommen. Dass seine Firma genau dieses Prinzip zugunsten von Facebook in Indien und vielen afrikanischen Staaten abschaffen wollte und in weiten Teilen abgeschafft hat, erwähnte er nicht.

Schutz der User – oder des Werbeumsatzes?

Die So-tun-als-ob-Strategie trägt dann, wenn sie funktioniert, viel zu Facebooks Image bei. Zuckerberg weiß das und publiziert nicht nur Briefe an seine Tochter, sondern auch seine Vorstellung von Facebooks Zukunft. Anfang März verkündete er, künftig solle Kommunikation zwischen Nutzern auf Facebook verschlüsselt stattfinden. Ein Versuch, für mehr Sicherheit und Privatsphäre zu sorgen.

In diesem Fall aber wurde die Strategie von den meisten Kommentatoren durchschaut: „Facebook schützt Nutzerdaten gern dann, wenn die gesellschaftliche Verantwortung der Firma dadurch weniger wird“, sagt die türkische Forscherin Zeynep Tufekci, die über die gesellschaftlichen Auswirkungen sozialer Netzwerke forscht. „Aber nicht, wenn sich durch den Schutz der Werbeumsatz verringern könnte.“

Tatsächlich kann sich Facebook wohl auf den Standpunkt zurückziehen, für die Inhalte verschlüsselter Nachrichten nicht länger verantwortlich zu sein; schließlich könne der Konzern sie selbst nicht sehen. Ein heikles Argument, wenn man an die massenhafte Verbreitung von Lügen und Hetze nicht nur im indischen und indonesischen Wahlkampf über Facebook und WhatsApp denkt. Dass man Nutzerdaten nicht nur vor dem Zugriff von Hackern, Staaten und anderen Nutzern, sondern auch vor dem von Werbekunden besser schützen würde, wäre ein herausragendes Versprechen von Zuckerberg gewesen. Er hat es aber nicht gegeben.

Journalismus als Verschiebemasse

Facebook lebt maßgeblich von den Inhalten, die auf der Plattform veröffentlicht werden. Ohne Unterhaltung und Informationen würden sich die Nutzer langweilen. Ein großer Teil dieser Inhalte kommt von Redaktionen. Für sie ist die Partnerschaft mit Facebook bestenfalls zwiespältig: Zwar erhöht das Netzwerk die Reichweite für den Journalismus, allerdings bleiben die Umsätze mit Werbung, die neben den journalistischen Texten, für die das Netzwerk nichts bezahlt, platziert ist, jetzt bei Facebook.

Auch dadurch sind die Einnahmen der Verlage drastisch gesunken, für sie wird es immer schwerer, unabhängigen Journalismus zu finanzieren. Das geht seit Jahren so. Ein Beispiel: Vom dritten Quartal 2015 auf das dritte Quartal 2016 wuchs der Markt für Werbung in den USA um 2,9 Milliarden Dollar. 99 Prozent dieser neuen Umsätze gingen an Facebook und Google.

Mark Zuckerberg betont regelmäßig, wie sehr ihm Journalismus am Herzen liege: „Eine starke Nachrichtenindustrie“ sei „entscheidend für eine informierte Gesellschaft“. Gleichzeitig sind journalistische Texte, Videos und Bilder auf und für Facebook aber Verschiebemasse im Angebot für die Nutzer. Die, wenn die Firma eine neue Strategie etabliert, wichtiger oder unwichtiger werden kann und dementsprechend mehr oder weniger Verbreitung findet. Mehrere Medien sind in existenzielle Krisen gestürzt, weil Facebook plötzlich beschlossen hatte, ihren Journalismus als weniger wichtig einzustufen. Facebook schwächt den Journalismus in einer Zeit, in der Recherche und verlässliche Informationen einen wichtigen Kontrapunkt zu den Verschwörungstheorien und Hetzbotschaften an vielen Stellen im Netz bieten könnten.

Knapp 30 Millionen Deutsche informieren sich regelmäßig über Facebook. Zumindest bislang war es in freien Demokratien nicht so, dass eine einzelne Firma für eine so große Masse allein darüber entscheidet, welche Nachrichten relevant und welche nicht relevant sind.

Facebook weigert sich zwar, für Inhalte zu bezahlen. Die Firma versucht aber, Journalismus durch finanzielle Zuwendungen zu unterstützen. Was manche Redaktionen als Unterstützung empfinden, ist für andere eine Horrorvision: die freie Presse, unterstützt und abhängig von den Zuwendungen einer umstrittenen Firma.

Die Zentrale des Überwachungskapitalismus

Die Kanzlerin formulierte es auf einer Konferenz in Berlin so: „Die Bepreisung von Daten, besonders die der Konsumenten, ist aus meiner Sicht das zentrale Gerechtigkeitsproblem der Zukunft.“ Vielleicht ist die Datenbepreisung auch schon das zentrale Gerechtigkeitsproblem der Gegenwart. Sicher ist, dass der Markt für Daten gigantisch ist. Und Facebook nimmt eine zentrale Rolle ein.

Ethisch sind die Grenzen eher weit gesteckt. Die Daten der Nutzer verwendet Facebook unter anderem, um werbetreibende Unternehmen genau jene Zielgruppe auswählen zu lassen, die das jeweilige Unternehmen erreichen möchte. Ein kurzer Test zeigt: Bevor man als Werbetreibender die Zielgruppe definieren kann, muss man anklicken, dass man die „Integrität von Werbung auf Facebook nicht beschädigen wird“ und die „nicht diskriminierenden Regeln“ der Firma akzeptiere. Klickt man „ok“, kann man danach seine Zielgruppe zum Beispiel nach deren Interesse an Kriegsverbrechern und Massenmördern definieren: Pol Pot ist vorgegeben, Josef Stalin auch.

Die größten Verbrecher des „Dritten Reiches“ sind in Deutschland nicht als „Interessengebiet“ verfügbar, nach einem Bericht der „Los Angeles Times“ aber in den USA. Welches Unternehmen, welche Organisation, welche Menschen suchen auf Facebook Kunden, die sich primär für Josef Mengele interessieren?

In diesem Londoner Gebäude befinden sich die Büros der Firma Cambridge Analytica, der Daten von Facebook-Nutzern weitergegeben wurden

Die Sortierung nach politischen Interessen, wie Facebook sie erlaubt, ganz gleich wie extrem und abseitig, stößt auf großes Interesse – auch von zwielichtigen Partnern. Das ist spätestens seit Mitte März 2018 offensichtlich. Und seit damals ist auch klar, dass Facebook zu diesen Daten Dritter umfassend Zugang gewährt hat. Mithilfe einer spielerischen Umfrage für Facebook-Nutzer war es dem Programmierer Alexander Kogan gelungen, persönliche Daten von mehreren Millionen Nutzern abzugreifen; Kogan spricht von 30 Millionen, Facebook von bis zu 87 Millionen Nutzern.

Die Daten gab Kogan an die britische Firma Cambridge Analytica weiter, die damit warb, Nutzer auf Basis der Daten gezielt in ihren Entscheidungen manipulieren zu können. Cambridge Analytica arbeitete nach eigenen Angaben für Parteien in über 200 Wahlen rund um die Welt, darunter in Nigeria, Tschechien und Argentinien wie auch im Wahlkampf für Donald Trump und eine Kampagne, die den Abschied von Großbritannien aus der EU forderte.

Als das Geschäft mit der Manipulation der Bürger öffentlich bekannt wurde, bestellten politische Untersuchungsausschüsse rund um die Welt Facebook-Manager ein. Zuckerberg selbst musste dem US-Kongress Rede und Antwort stehen. Er räumte ein, dass diese Vorwürfe zutrafen. Entschuldigend sprach er davon, dass es Facebooks Verantwortung sei, alle „Mitglieder unserer Gemeinschaft“ dazu zu bringen, Facebooks „Werkzeuge auf gute und gesunde Weise zu verwenden“.

Das Sicherheitsteam überprüft Nutzer

Dazu gehört offenbar, wie in diesen Tagen durch eine Reportage von Business-Insidern bekannt wurde, dass Facebooks Sicherheitsabteilung persönliche Daten von Nutzern dann genauer unter die Lupe nimmt, wenn sie der Meinung ist, dass das nötig ist, um „Facebook-Mitarbeiter zu sichern“. Um Einverständnis wird vorher nicht gefragt. Auf Anfrage teilt das Unternehmen mit, dass das Sicherheitsteam zum Beispiel überprüfe, an welchem Ort bestimmte Nutzer seien. Dies genehmige man sich nur dann, wenn eine „reale Gefahr“ bestehe.

Das Beispiel lässt die Zwickmühle, in der sich Facebook aufgrund der eigenen Macht befindet, erkennen. Menschlich ist die Verwendung von Daten der Nutzer für die Sicherheit der Mitarbeiter verständlich. Aber ein Polizist, der einen Bürger gezielt überwachen möchte, muss vor der Überwachung dieselbe durch einen Richter genehmigen lassen – das ist Gewaltenteilung und Rechtsstaatsprinzip. Bei Facebook entscheidet ein Sicherheitsteam – und die privatwirtschaftliche Überwachung einer einzelnen Person nimmt ihren Lauf. Den Nutzern bleibt allein die Hoffnung, dass die Macht nicht missbraucht wird.

Intime Daten anderer Apps übertragen

Eine Hoffnung, die bei vielen von ihnen, aber auch bei Politikern und Datenschützern kontinuierlich abnimmt. Den jüngsten Tiefpunkt im Geschäftsmodell Totalüberwachung erreichte Facebook erst diesen Februar, als amerikanische Journalisten des „Wall Street Journal“ mithilfe von IT-Spezialisten zeigten, dass zahlreiche Apps, die mit Facebook vordergründig nichts zu tun hatten, intime Daten der Nutzer an die Firma schickten.

Darunter die Gesundheits-App „Flo Health Period and Ovulation Tracker“, die Facebook mitteilte, wann welche Nutzerin ihre Periode hat und ob sie schwanger werden möchte. Die App hat nach eigenen Angaben 25 Millionen Nutzerinnen. Die App „Instant Heart Rate“ teilte Facebook den Herzrhythmus ihrer Nutzer mit, die Immobilien-App „Realtor.com“ Preise und Lage aller Häuser, die sich ein Nutzer anschaute, und außerdem, welche Immobilien der Nutzer als Favoriten markierte. Facebook teilte mit, einige der Datenerhebungen würden gegen die eigenen Geschäftsbedingungen verstoßen; die Datenübertragungen würden nun gestoppt werden.

Die Dreckschleuder des Internets

Facebook ist der größte Stammtisch der Welt. Hier treffen sich Nazis und Verschwörungstheoretiker, die glauben, aus Passagierflugzeugen werde regelmäßig Giftgas in die Wolken gesprüht, Linksradikale und Personen, die sich sicher sind, dass die Erde eine Scheibe ist oder Impfen gefährlich. Menschen, die vor 20 Jahren als krude Einzelgänger oder sozial isolierte Extremisten gelebt hätten, finden heute auch dank Facebook rund um die Welt Gleichgesinnte. Das Phänomen birgt ernste Gefahren für die Gesellschaft. Zu Beginn dieses Jahres hat die Weltgesundheitsorganisation die Vermeidung oder Verzögerung von Impfungen in die Liste der globalen Gesundheitsbedrohungen aufgenommen.

Noch drastischer sind die Fälle des Attentäters von Christchurch und des Mörders Steve S., bei denen Facebook reagierte. Das Originalvideo, das der Massenmörder von Christchurch während seiner Tat aufzeichnete, wurde mehrere Tausend Mal auf Facebook angesehen. Später wurde es mehrere Millionen Mal erneut hochgeladen. Das versuchte Facebook mit allen Mitteln zu verhindern und war dabei teilweise erfolgreich. Steve S. ermordete im Frühjahr 2017 einen Mann in Cleveland, filmte die Tat und veröffentlichte die Aufnahme auf der Plattform. Es stand für zwei Stunden im Netz.

Die Zeit, das Ergebnis einer Recherche, einer Ermittlung oder auch nur einer Überlegung abzuwarten, bleibt im Durchlauferhitzer des Internets nicht, wie das Beispiel eines 13-jährigen Mädchens zeigt. „Lisa“, Tochter eines russlanddeutschen Paars, sollte, so eine sich in einschlägigen Foren auf Facebook rasant verbreitete Meldung, von Flüchtlingen vergewaltigt worden sein. Auf der Plattform entwickelte die Meldung eine gewaltige Dynamik, sie wurde zum Politikum. Das ist drei Jahre her. Doch selbst nachdem offizielle Stellen klargestellt haben, dass die Geschichte nicht stimmte, halten Verschwörungstheoretiker bis heute an ihr fest und verbreiten sie als Beleg für die Gefährlichkeit von Flüchtlingen.

Erfundene Nachrichten verbreiten sich schneller

Studien des Massachusetts Institute of Technology zeigen, dass sich erfundene Nachrichten etwa sechsmal schneller im Netz verbreiten als zutreffende Meldungen. Die Deutschen bemerken das. Sie haben mittlerweile nur noch wenig Vertrauen in soziale Medien: Bei einer Erhebung des Bredow-Instituts für Medienforschung gab im vergangenen Jahr weniger als ein Fünftel der Menschen an, den auf den Netzwerken verbreiteten Informationen zu trauen. Für Facebook ist die Herausforderung groß, weil in demokratischen Ländern aus gutem Grund auch idiotische Äußerungen als freie Meinungsäußerungen erlaubt sind. Eine Lösung muss demokratischen Ansprüchen gerecht werden und würde dementsprechend kompliziert ausfallen.

Bislang hat Facebook in Deutschland versucht, das Problem zumindest teilweise an andere Organisationen zu delegieren, die als „Kooperationspartner“ oder als Teil einer Taskforce gebeten wurden zu helfen. Mit ausgewählt wurde unter anderem die Amadeu-Antonio-Stiftung aus Berlin, deren Leiterin als junge Frau acht Jahre Inoffizielle Mitarbeiterin der Stasi war, bevor sie nach ihren Angaben von selbst einen Schlussstrich unter die Spitzeltätigkeit zog und einen Ausreiseantrag stellte.

Für das Löschen von Inhalten setzte Facebook Flüchtlinge ein, viele davon durch den Krieg traumatisiert. Sie mussten sich im Auftrag der Firma durch Enthauptungsvideos und Terrorpropaganda wühlen.

Keine der Lösungen, die Facebook im Verlauf der vergangenen Jahre anstrebte, hat bislang die Balance zwischen der Achtung der Meinungsfreiheit, der Verbannung von Illegalem und der Eindämmung von Gefährlichem gefunden.

Möchte das Netzwerk das Problem überhaupt beseitigen? Daran gibt es Zweifel. „Facebook hat es bösen Kräften ermöglicht, Nutzer zu manipulieren und unschuldigen Menschen Schaden in ungeheurem Ausmaß zuzufügen“, schreibt Roger McNamee in seinem gerade erschienenen Buch „Zucked“, das den Untertitel „Aufwachen mit der Facebook-Katastrophe“ trägt. McNamee ist einer der bekanntesten Investoren des Silicon Valley. Er riet Zuckerberg, seine Anteile an Facebook nicht zu früh zu verkaufen, und half ihm dadurch, der gut 60-fache Milliardär zu werden, der er ist. McNamees Fazit: Facebooks Geschäftsmodell, zielgerichtete, personalisierte Werbung an die Nutzer auszuspielen, vertrage sich schlicht nicht mit einer konsequenten Entfernung von Inhalten aus dem Netzwerk.

Die Visier der Behörden

Gegen die Firma, der Milliarden Menschen rund um die Welt ihre Daten ausliefern und die sie als Informationsquelle nutzen, ermitteln weltweit zahlreiche Behörden. Erst im Februar untersagte zum Beispiel das Bundeskartellamt Facebook die Zusammenführung von Nutzerdaten aus verschiedenen Quellen.

Konkret bedeutet diese Entscheidung der Wettbewerbshüter, dass Facebook nicht einfach Informationen eines WhatsApp- oder Instagram-Nutzers mit dessen Nutzerinformationen bei Facebook verknüpfen darf. Dafür braucht die Firma eine ausdrückliche Zustimmung. Damit setzt das Bundeskartellamt ein Versprechen durch, das Facebook in Bezug auf die Akquisition von WhatsApp ohnehin gegeben hatte, nämlich WhatsApp- und Facebook-Daten nicht zu kombinieren. Es dauerte allerdings nur zwei Jahre, bis die Firma in einem Blogpost das Gegenteil verkündete und begann, die Daten von WhatsApp- und Facebook-Accounts zu verschmelzen – zum Entsetzen vieler Nutzer und Bürgerrechtsorganisationen.

Auch Nutzerdaten von anderen Anwendungen, an die Facebook beispielsweise über die Einbindung von Teilen- und Like-Funktionen auf anderen Webseiten gelangt, dürfen nicht mehr ohne Zustimmung in den großen Facebook-Datenpool geworfen werden. Bundeskartellamtschef Andreas Mundt spricht von „einer Art inneren Entflechtung bei den Daten“. Der Verdacht auf ein Monopol liegt nicht nur nahe. Das Kartellamt beziffert den Marktanteil von Facebook an der Nutzung sozialer Netzwerke in Deutschland auf über 95 Prozent bei den täglich aktiven Nutzern. Facebook hat gegen die Entscheidung des Kartellamts Beschwerde eingelegt.

Daneben gibt es eine Datenschutzklage der Verbraucherzentralen gegen Facebook, die vor dem Bundesgerichtshof (BGH) verhandelt wird. In Irland sind gleich mehrere Verfahren anhängig, die von der dortigen Datenschutzbehörde untersucht werden.

Facebook-CEO Mark Zuckerberg bei seiner Aussage vor dem US-Kongress

Und zu Hause in den USA müssen Facebooks Anwälte wohl Nachtschichten schieben. Ausgangspunkt mehrerer Untersuchungen ist der Datenmissbrauch durch Cambridge Analytica. Derzeit soll eine Untersuchung kalifornischer Behörden ans Licht bringen, seit wann genau das Topmanagement der Firma über den Datenmissbrauch durch Cambridge Analytica informiert war.

In diesen Tagen wurde bekannt, dass Behörden im Bundesstaat New York außerdem untersuchen lassen, inwieweit Deals von Facebook mit Smartphone-Herstellern gegen gesetzliche Bestimmungen verstoßen. Diese Abkommen sollen den Herstellern Zugang zu Nutzerinformationen gegeben haben, darunter Freundeslisten. Die „New York Times“ zitierte in einem Bericht weitere Untersuchungen des Justizministeriums und der Federal Trade Commission, der amerikanischen Wettbewerbs- und Verbraucherschutzbehörde.

Zwischen Leugnung und Entschuldigung

Streit gibt es auch über Facebooks Angaben über die Dauer, die Nutzer des Netzwerks durchschnittlich auf der Seite Videos anschauen. Diese Zahl ist eine der wichtigsten Grundlagen für die Berechnung von Werbepreisen. Ausgerechnet sie soll zu hoch ausgewiesen worden sein. Werbekunden sei der Eindruck vermittelt worden, die Nutzer von Facebook verbrächten dort wesentlich mehr Zeit mit Videos als anderswo – und hätten aufgrund dieser Angaben ihr Werbebudget verteilt. Facebooks Mitbewerber seien entsprechend benachteiligt worden. Über die Klage berichtete das „Wall Street Journal“. Facebook teilte mit, ein Fehler sei der Grund für die Aufregung, man habe die Kunden selbst informiert.

Wegen des Abgriffs von Daten über Apps anderer Anbieter fordern vor allem in den USA Politiker die Einleitung einer Kartellklage gegen Facebook. „Nach jeder Verfehlung, die öffentlich wird, wechselt Facebook zwischen Leugnung, leeren Versprechen und Entschuldigungskampagnen“, schrieb David Cicilline, der für die Demokraten im Repräsentantenhaus sitzt, Mitte März in der „New York Times“.

Das Erfolgsmodell Abhängigkeit

Sean Parker hat früh in Facebook investiert und dabei geholfen, aus einem Studentenprojekt eine Firma zu machen. Blickt er auf das, was er geholfen hat zu erschaffen, wird er selbstkritisch. „Gott allein weiß, was es mit den Gehirnen unserer Kinder macht“, sagte Parker auf einer Konferenz Ende 2017 über das Netzwerk. Ziel der Firma sei es von Anfang an gewesen, Menschen in eine unmittelbare Abhängigkeit zu bringen, sie in einer Art Suchtschleife nach sozialer Bestätigung gefangen zu nehmen: „Das Ausnutzen einer Schwachstelle in der menschlichen Psyche.“

Ein weiterer hochrangiger ehemaliger Facebook-Mitarbeiter äußert sich ähnlich. Chamath Palihapitiya, als Risikokapitalgeber unverdächtig, grundsätzlich gegen neue Geschäftsmodelle zu sein, arbeitete vier Jahre bei Facebook. Seine Aufgabe: neue Nutzer zu gewinnen. Bei einer Rede vor Absolventen der Universität Stanford sagte er: „Die kurzen Schleifen, die wir gebaut haben und dem Nutzer immer wieder Dopamin verschaffen, zerstören die Gesellschaft: kein Diskurs, keine Zusammenarbeit, dafür Falschinformationen und Unwahrheit.“

Studien von Neurobiologen bestätigen Palihapitiyas Dopamin-Theorie. Der Stoff ist ein Neurotransmitter, der auch für Motivation zuständig ist – umgangssprachlich oft als „Glückshormon“ bezeichnet. Man habe ein „globales Problem“ geschaffen.

Unter anderem ehemalige Facebook-Mitarbeiter und Investoren haben deshalb das Center for Humane Technology gegründet, das über die Gefahren der sozialen Plattformen aufklärt. Sie sagen: Der Unterschied zu älteren Technologien sei gravierend. Anders als Fernsehen, Radio oder Computer präsentierten soziale Medien durch künstliche Intelligenz und personalisierende Technologie exakt das, was der Nutzer sehen wolle; sie seien rund um die Uhr präsent im Leben und beeinflussten das Selbstvertrauen durch die unmittelbaren Reaktionen anderer Nutzer. Facebooks und Instagrams rasantes Wachstum ist demnach weniger einer genialen Produktidee geschuldet als einem Suchtreflex, den das Netzwerk bei seinen Nutzern zuverlässig auslöst.

Vom Geist des Unternehmens

Die meisten großen Unternehmen tragen einen Gründungsmythos in sich, der sie für die Zeit, die sie existieren, begleitet. Bei Mercedes-Benz mag es der Geist von Bertha Benz sein, die 1888 den „Patent-Motorwagen“ ihres Mannes einfach mal ausprobierte. Es war die erste längere Autofahrt der Welt. Bei Bell, dessen gleichnamiger Gründer der Erfinder des Telefons war, dessen unbedingter Wille durch die Beschäftigung mit Schall den Tauben zu helfen.

Facebooks Geist wuchs im Jahr 2003 in der Studentenbude von Mark Zuckerberg heran. Facesmash, der Vor-Vorläufer von Facebook, den Mark Zuckerberg dort programmierte, ermöglichte es, Kommilitoninnen und Kommilitonen nach ihrer Attraktivität zu bewerten. Die Fotos besorgte sich Zuckerberg von den Zentralrechnern der Universitätswohnheime. Man könnte die Episode als Ausrutscher eines Heranwachsenden abtun und vergessen. Wenn sich nicht der Kern von Facesmash bis heute in Spuren in der DNA von Facebook finden würde: geschicktes Experimentieren mit der menschlichen Psyche. Und eine Datensammlung, die ohne Einverständnis der Nutzer entstanden ist. Und die gegen ihren Willen verwendet wird.