Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66

MEDIA RESEARCH BLOG

Blog Header Background Image
Zur Übersicht
Stellungnahme zu Facebooks Oversight Board

Stellungnahme zu Facebooks Oversight Board

12.05.2020

Ein neues Gremium bei Facebook, das “Oversight Board”, wird in den kommenden Monaten seine Arbeit aufnehmen. Es soll Entscheidungen von Facebook anfechten und Policy-Empfehlungen aussprechen können. Internetrechtsexperte PD Dr. Matthias C. Kettemann kommentiert für das Science Media Center dieses „Quasi-Gericht“.
Facebook möchte mit seinem neu eingerichteten „Oversight Board“ eine Art Gericht schaffen. Nutzer*innen haben in Zukunft die Möglichkeit, Entscheidungen von Facebook, wie etwa die Löschung von Postings, dort anzufechten. Das Board soll aus unabhängigen Expert*innen zusammengesetzt sein und wird in den kommenden Monaten mit den ersten Anhörungen beginnen. Die folgende Stellungnahme ist – gemeinsam mit jenen anderer Expert*innen – zuerst auf der Website des Science Media Center erschienen.
Was ist das Oversight Board und was will es?
Das Oversight Board stellt den ersten Versuch einer Plattform da, ein Quasi-Gericht zu schaffen. Schon lange setzen Internetplattformen wie Facebook und Twitter Regeln, aber bisher haben sie diese auch immer selbst umgesetzt. Große Teams an Moderator*innen, unterstützt durch Algorithmen, haben Inhalte gelöscht. User*innen, die sich ungerecht behandelt fühlten, konnten nur in intransparenten Prozessen intern die nächste Instanz anrufen. Das hat schlecht geklappt. Jetzt eröffnet Facebook seinen User*innen die Möglichkeit, gelöschte Inhalte vor ein unabhängiges Expert*innengremium zu bringen, das mit richtig viel Geld ausgestattet und so unabhängig wie möglich gestaltet ist. Natürlich werden wir warten müssen, wie selbstbewusst das Board auftreten wird, aber hier für mehr Kontrolle durch externe Expert*innen zu sorgen, ist ein guter Ansatz. Vor allem, weil das Board ja nicht nur in Einzelfällen Inhalte wiederherstellen kann, sondern auch Empfehlungen abgeben kann, wie Facebook seine Regeln ändern soll.
Sind die Entscheidungen des Boards bezüglich einzelner Inhalte für Facebook juristisch bindend?
Facebook hat sich dazu bekannt, entsprechende Entscheidungen umzusetzen. Strafen gäbe es natürlich keine, aber wenn sich Facebook wirklich nicht an gut begründete Entscheidungen des mit viel Geld und Mühe eingerichteten Boards hielte, dann würde das Unternehmen sehr viel Goodwill verlieren; dann wäre der ganze Prozess umsonst gewesen. Ich denke, Facebook wird die Entscheidungen daher befolgen. Bei den Empfehlungen für neue Regeln, die ja nicht bindend sind, könnte es hingegen sein, dass nicht jede aufgenommen wird. Hier werden wir erst sehen, wie gut das Board argumentiert und ob es öffentlichen Druck gegenüber Facebook aufbauen kann.
Wie wird sichergestellt, dass das Board nicht vor allem die Vorschläge von Facebook prioritär behandelt und möglicherweise wichtigere und kontroversere Anfragen von Nutzer*innen ignoriert?
Natürlich kann Facebook auch Fälle vor das Board bringen, aber ich sehe diese Gefahr nicht. Natürlich will Facebook mit dem Board sensible Entscheidungen "internationalisieren" und damit auslagern. Das Unternehmen will nicht mehr die Entscheidung treffen müssen, ob zum Beispiel das Bild des vor dem US-Napalm-Angriff im Vietnamkrieg fliehenden Mädchens wegen Nacktheit gelöscht oder wegen der historischen Bedeutung online bleiben soll. Facebook will hier mehr Legitimität erzeugen. Und das geht nur, wenn sie ehrlich und offen mit dem Board umgehen. Dass sie mit einem Team des Hamburger Leibniz-Instituts für Medienforschung, dem ich auch angehörte, 2019 erstmals Forscher beobachten ließen, wie Normen entstehen, deutet schon einmal in die richtige Richtung. Jedenfalls agiert Facebook (und Google auch) im Bereich der Inhaltsmoderation weit sensibler und menschenrechtsfreundlicher als nichtwestliche Plattformen wie TikTok. Darüber müssen wir in Zukunft verstärkt reden.
Inwiefern hat das Board insbesondere im Hinblick auf die kommenden US-Wahlen genug Befugnisse?
Hier wird besonders die Frage virulent, ob manipulative Werbung verboten werden soll – oder vielleicht überhaupt politische Werbung. Das ist in Amerika ein größeres Problem als in Deutschland, auch wenn es auch hier während der EU-Wahl einige Fälle von manipulierten Einschaltungen gegeben hat. Allerdings kann das Board ja nur gelöschte Inhalte wiederherstellen und nicht Inhalte, die online sind, löschen lassen – zumindest jetzt noch nicht. Allerdings könnte das Board sehr bald die Empfehlung aussprechen, dass Facebook seine Richtlinien ändert und irreführende politische Werbung verbietet. Das wäre dann aber – zunächst – nur ein Vorschlag.
 
Foto: Alex Haney / Unsplash

Weitere Artikel

mehr anzeigen

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!