Löschen ist nicht immer die beste Option

In den letzten Jahren wurde immer häufiger darüber diskutiert, dass Inhalte oder ganze Accounts von sozialen Plattformen gelöscht wurden. Diese Praxis wirft viele Fragen zu komplexen Themen auf. Aus Österreich arbeitet der Bürgerrechtsverein epicenter.works an dem Gesetzesvorschlag, der derzeit im Europa Parlament verhandelt wird. Für CONTRASTE hat Brigitte Kratzwald mit Thomas Lohninger von epicenter.works gesprochen.

CONTRASTE: Ihr habt euch intensiv mit Plattformregulierung beschäftigt. Was sind zentrale Themen dabei und wo liegen Probleme?

Thomas Lohninger: Die zentrale Frage ist, wer haftet für einen illegalen Inhalt. Ein Internetanbieter ist genau so wenig zur Verantwortung zu ziehen für Inhalte, die ich über ihn bekomme, wie ein Telefonanbieter, wenn ich eine telefonische Bombendrohung bekomme, und diese Haftungsausnahme gilt auch für Internetplattformen. Erst sobald der Plattformbetreiber durch eine Meldung Kenntnis erhält, muss er tätig werden. Für diesen Meldevorgang würden wir uns zum Beispiel mehr prozedurale Fairness wünschen. Weil natürlich sowohl die Rechte desjenigen, der etwas meldet, das er als illegal empfindet, wie auch die Rechte von jemandem, der etwas gepostet hat, was vielleicht gar nicht illegal ist, zu wahren sind, das ist derzeit ein sehr asymmetrisches Verhältnis.

Wer entscheidet, ob etwas illegal ist?

Die Plattform kann über die Illegalität nicht letztgültig entscheiden, unserer Meinung nach sollte immer ein Rechtsweg offen stehen, damit die Klärung der Illegalität in rechtsstaatlicher Hand ist. Wir wollen nicht, dass das verschoben wird hin zu den Plattformen und damit zu global operierenden Unternehmen.

Dann muss man klar unterscheiden zwischen illegalen Inhalten, die auf Grund von lokalen Gesetzen eben nicht von der Meinungsfreiheit gedeckt sind und jenen legalen Inhalten, die vielleicht trotzdem unliebsam sind oder man einfach auf der Plattform nicht haben will. Das ist der Großteil des Inhalts, der moderiert wird, und hier gibt es eine enorme Freiheit der Plattformen durch die Geschäftsbedingungen. Man kann alle Katzenvideos aus dem Internet löschen, wenn man ein soziales Netzwerk für Hunde betreibt. Ein bekanntes Beispiel dazu ist die Nippel-Policy von Facebook, die eben sehr nach den amerikanischen Moralvorstellungen gestrickt ist. Weibliche Brustnippel sind absolutes no-go, Justin Biber kann oben ohne auf der Plattform sein.

Das heißt, qualitätsvolle Inhaltsmoderation müsste durch Menschen passieren, die in der Region sind, die Sprache sprechen, die Kultur verstehen und auch eine gewisse Sensibilität für die Rechtstradition haben und nicht wie derzeit in Niedriglohnländern unter schlechten Arbeitsbedingungen solche Entscheidungen treffen.

Das heißt, ein Problem ist auch, dass das Internet global ist, die Menschen aber in ihren jeweiligen regionalen Kontexten leben und auch posten?

Ja, wir haben globale Plattformen, aber sehr unterschiedliche Standards für Meinungsfreiheit. Überall da, wo der Staat neue Durchgriffsrechte gegenüber Plattformen schafft, die sie an seine rechtlichen Standards binden, dann werden auch andere Weltregionen, die nicht den demokratischen oder rechtsstaatlichen Standards von Europa genügen, das Gleiche tun. Das haben wir gesehen mit den über 17 Ländern, die das Netzwerkdurchsetzungsgesetz aus Deutschland übernommen haben, das erste Land war Russland. In Ländern wie Belarus, wo bereits jetzt hunderte Oppositionsseiten durch die lokalen Telekombetreiber gesperrt werden, ist es für viele Menschen eine Drohung, wenn lokale Gerichte dann auch Facebook-Posts sperren könnten.

Aus unserer Sicht ist es auch für die Zukunft wichtig, dass eine Plattform nicht per Gesetz dazu verpflichtet werden darf, das Verhalten ihrer Nutzer*innen immer zu überwachen, sondern erst im Einzelfall tätig werden darf. Die Frage ist, wie wird man denn tätig, die Löschung des Inhalts ist nicht immer das richtige Mittel.

Welche Mittel können sonst angewendet werden?

Wenn das wirklich hochgradig illegale Inhalte sind, wie die Dokumentationen von sexueller Gewalt an Kindern, dann ist die Löschung auch Beweismittelvernichtung, dann wäre etwa eine strafrechtliche Verfolgung das weitaus sinnvollere Mittel. Die NGO Syrian Archive hat sich dagegen gewehrt, dass YouTube seine Löschpraxis auf Videos aus dem syrischen Bürgerkrieg anwendet, weil damit auch Beweismittel gegen die Kriegsverbrecher in Syrien vernichtet wurden. Andere Dinge sind auf zivilrechtlichem Weg zu klären, Persönlichkeitsrechte etwa sollten die Beteiligten untereinander ausstreiten und die Plattform schaut nur, dass die Rechtsdurchsetzung passiert. Im Kommunikationsplattformengesetz ist es deshalb so, dass wenn ein Inhalt gelöscht wird, er von der Plattform für 30 Tage aufbewahrt werden muss für eine etwaige Strafverfolgung.

Manchmal wäre es einfach sinnvoller, dass man diese Inhalte in ihrer Reichweite anders behandelt. Ein viel wichtigeres Problem als löschen oder nicht ist aus meiner Sicht die Frage der sogenannten algorithmischen Amplifizierung von Inhalten. Also, was wird mir denn im Newsfeed auf Facebook angezeigt, welche YouTube-Videos werden mir als Nächstes empfohlen. Das macht den Großteil der gesehenen Inhalte auf diesen Plattformen aus und insofern ist diese Reihung viel wirkmächtiger. Also: Das Problem ist nicht der verschwörungstheoretische Inhalt, der unter die Meinungsfreiheit fällt, man darf Blödsinn glauben, man darf auch Verschwörungstheorien glauben, aber die Reichweite, die den Leuten gegeben wird, ist ein Problem.

Das hängt eben wieder mit den Algorithmen zusammen, beziehungsweise mit dem Geschäftsmodell der Plattformen. Verschwörungstheorien und andere extreme Inhalte sind leider perfekt dafür geeignet, möglichst lange unsere Aufmerksamkeit zu fesseln und davon leben Facebook, YouTube und Co. Vom Wall Street Journal wurde gerade gezeigt, wie etwa der TikTok-Algorithmus seine User*innen einschätzt und in eine Bubble lenkt. Wir fordern deshalb dringend mehr Transparenz beim Einsatz von Algorithmen, damit uns Nutzenden die Entscheidungssouveränität bleibt.

Die Inhalte werden von realen Menschen moderiert, die Reihung aber durch Algorithmen gemacht?

So genau kann man das gar nicht mehr trennen. Bei viele Inhaltsmoderationen werden auch Algorithmen angewendet. Während der Corona-Pandemie wurden auf mehreren sozialen Netzwerken schon durch die Erwähnung von »Covid-19« in Schrift oder Ton Maßnahmen gesetzt. Auf Facebook wurde zum Beispiel für jeden Post mit dem Begriff »Covid-19« eine Infobox eingeblendet, die auf amtliche Information zum Virus verweist. An anderer Stelle wurden ganze Videos gelöscht, auch wenn es Ärzte waren, die auf ihrem YouTube-Kanal nur über das Virus und wie man sich schützen kann aufklären wollten.

Inhaltsmoderation ist aber grundsätzlich schwierig, weil wir haben ja kein »Wahrheitsministerium«. Manchmal, etwa bei Verleumdung, muss man vor Gericht einen Wahrheitsbeweis antreten. Aber oft betrifft das Fragen, bei denen wir uns als Gesellschaft uneinig sind, die Gegenstand aktueller Auseinandersetzungen sind, und es wäre vermessen, würden wir von einem globalen, profitorientierten Unternehmen erwarten, das für uns zu lösen. Das wäre ein schlechter Zugang, wenn es darum geht, demokratischen Diskurs und ein zivilisiertes Miteinander aufrecht zu erhalten.

Du hast vorhin auch von »unliebsamen« Inhalten gesprochen, das betrifft eher autoritäre Staaten?

Das kommt ganz drauf an. Die hauptsächliche Art, wie Inhalte aus dem Internet gefischt werden, ist wegen Copyright-Verletzungen, weil es hier schnell um viel Geld geht und der Anreiz für die Plattformen hier am größten ist, die runter zu nehmen. Ob die Person, die etwas wegen eines Urheberrechtsverstoßes meldet, wirklich Rechteinhaber ist, muss oft nicht einmal belegt werden. Daher ist das Urheberrecht ein sehr effektives Tool zur Internetzensur und das betrifft sowohl die USA wie auch Europa, wobei mit der Umsetzung der EU-Urheberrechtsrichtlinie in Europa die Karten in den nächsten Monaten nochmal neu gemischt werden.

Gibt es eine Vision, wie so ein Netzwerk ausschauen könnte, wo es nicht diese Machtasymmetrien gibt?

Spannende Frage. Ich glaube schon, dass ein Internet, das wieder dezentraler ist und nicht in diesen monolithischen Datensilos organisiert ist, ein besseres und ein bunteres wäre. Die Entscheidung darüber, was darf man wo sagen und was nicht, das ist eine zutiefst menschliche und die sollten wir als Gesellschaft und auch in Kleingruppen treffen können und nicht, dass das ein globaler Konzern für uns entscheidet. Also hier würde ich mir mehr Pluralität wünschen. Bei sozialen Netzwerken ist noch viel möglich, wie man zu einem föderierten System kommen könnte und ich glaube, dass bei öffentlichen Informationen auch Interoperabilität, das Zusammenschalten von Plattformen, ein wichtiger Bestandteil sein kann, um der Machtkonzentration entgegen zu treten.


Aktuelle gesetzliche Situation in Bezug auf Plattformregulierung

Derzeit gilt in Deutschland das Netzwerkdurchsetzungsgesetz: https://cutt.ly/5QRA1iG

Einschätzung durch netzpolitik.org: https://cutt.ly/jQRA9Q5

In Österreich das Kommunikationsplattformengesetz: https://cutt.ly/oQRA7CH

Einschätzung durch epicenter.works: https://cutt.ly/DQIXtQL

Facebook hat dagegen eine Klage eingebracht, da aus ihrer Sicht die Vorgaben gegen eine EU-Richtlinie verstoßen würden.

Auf EU-Ebene werden derzeit der Digital Service Act und der Digital Markets Act verhandelt, wo sich wo sich Epicenter.works aktiv einbringt und Vorschläge vorgelegt habt, die sich hier – leider nur auf Englisch – finden: platformregulation.eu. Dort wird etwa eine europäische Agentur für die Plattformregulierung, die unter anderem auch Minimalstandards für die Transparenz der Geschäftsbedingungen und der Inhaltsmoderation entwickeln.

Das EU Gesetz wird derzeit im Europa Parlament verhandelt und soll unter französischer Ratspräsidentschaft 2022 beschlossen werden.


Titelbild: Pixabay

Das könnte für dich auch interessant sein.