Das christliche Medienmagazin

„Keine Belege für linke Verschwörung auf Plattformen“

Kurz vor dem Ende seiner Amtszeit wurde Donald Trump auf mehreren Online-Plattformen gesperrt. Das zeigt, wie brisant die Frage nach der Macht von Facebook und Co. über die Kommunikation im Netz ist. Der Internet-Rechtler Matthias C. Kettemann über Meinungsfreiheit, Regeln und Verantwortung.
Von PRO
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email
Dr. Matthias C. Kettemann, Jahrgang 1983, ist Privatdozent am Institut für Öffentliches Recht der Universität Frankfurt/M. und Vertretungsprofessor für Internationales Recht an der Universität Jena. Darüber hinaus ist er an verschiedenen Forschungsprogrammen beteiligt und war mehrfach Sachverständiger und Berater politischer Gremien zu Rechtsfragen im Internet.
Dr. Matthias C. Kettemann, Jahrgang 1983, ist Privatdozent am Institut für Öffentliches Recht der Universität Frankfurt/M. und Vertretungsprofessor für Internationales Recht an der Universität Jena. Darüber hinaus ist er an verschiedenen Forschungsprogrammen beteiligt und war mehrfach Sachverständiger und Berater politischer Gremien zu Rechtsfragen im Internet.

pro: Mehrere Social-Media-Plattformen haben Donald Trump wegen des Aufstandes gegen das Wahlergebnis gesperrt. War das korrekt?

Matthias C. Kettemann: Rechtlich ja. Die Plattformen haben das nach ihren Allgemeinen Geschäftsbedingungen getan. Gleichzeitig ist es aber hochproblematisch, dass sie derartige Entscheidungen überhaupt treffen können. Schlussendlich waren es die Einzelentscheidungen einzelner Geschäftsführer wie Mark Zuckerberg von Facebook oder Jack Dorsey von Twitter. Sie üben einen enormen Einfluss auf die Kommunikation im Internet aus. In der Offline-Welt gibt es keine Parallelen für so etwas.

Twitter und Facebook hätten Trump schon früher sperren können, aber das Risiko sei zu hoch gewesen, haben sie in einem Interview erklärt. Warum das?

Twitter und Facebook und all die anderen haben lange Zeit Politiker geduldet, die sich nicht ganz an die Regeln der Plattformen gehalten haben, weil sie fanden, dass die Politiker aufgrund ihrer Bedeutung ein Sprachrohr verdienen. Twitter und Facebook haben das explizit in ihre AGB hineingeschrieben. Trump durfte also mehr sagen als ein „normaler“ Nutzer. Die Plattformen waren aber in den USA starker Kritik ausgesetzt, dass sie angeblich ideologisch moderieren. Gerade die rechten Kräfte rund um Trump und die konservative Partei haben den Mythos vorangetrieben, dass die sozialen Medien eine linke Verschwörung seien. Das ist wissenschaftlich überhaupt nicht nachweisbar. Im Gegenteil: Wir haben anhand von Leaks nachzeichnen können, dass sich die Plattformen in der ganzen Trump-Zeit äußerst bemüht haben, alle Änderungen in den Geschäftsbedingungen zuerst daraufhin zu testen, ob sie nicht zufällig alternative Medien oder Blogger aus dem Trump-Universum negativ beeinflussen. Diese Angst vor der Trump-Community ist jetzt nicht mehr stark gewesen. Außerdem, wie auch Nick Clegg, das zuständige Vorstandsmitglied für die Public Policy gemeint hat: Trump hat jetzt noch konkreter zur Gewalt aufgefordert als bisher.

Ist das dann Zensur gewesen?

Zensur im klassischen Sinne findet dann statt, wenn eine öffentliche Einrichtung einem das Wort verbietet. Das heißt, es ist keine Zensur, wenn eine Plattform jemanden aussperrt oder Inhalte löscht. Was wir hier haben, ist die Regulierung von Onlinekommunikation, primär nach den eigenen Geschäftsbedingungen. Aber zumindest in Deutschland ist das nicht ausreichend. Die Gerichte haben anerkannt, dass die Plattformen, wenn sie besonders mächtig geworden sind für die öffentliche Kommunikation, eben nicht nur eigene Regeln setzen und durchsetzen dürfen, sondern auch an die Grundrechte gebunden sind. Sie müssen zum Beispiel den Gleichheitssatz beachten, dürfen also nicht willkürlich Nutzer ungleich behandeln. Sie dürfen nicht sagen: Diese Partei mag ich nicht, deren Account wird gelöscht. Dazu gibt es auch schon eine ganze Reihe von Gerichtsurteilen. 2019 hat etwa das Bundesverfassungsgericht Facebook in einem Beschluss verboten, dass es einer rechtsextremen Kleinstpartei vor der Europawahl den Zugang entzieht. In Amerika ist das anders. Ein Gesetz von 1996 namens „Section 230“ immunisiert die Plattformen von Verantwortung und erlaubt ihnen, mehr oder weniger nach Belieben zu löschen.

Müssen Plattformen die Meinungsfreiheit garantieren?

Inwieweit die Meinungsäußerungsfreiheit auch für Plattformen an sich gilt, ist gerade eine riesige Frage. Die Plattformen sind nicht ohne weiteres daran gebunden, weil es eben private Akteure sind. Andererseits üben sie einen großen Einfluss auf die Meinungsäußerungsfreiheit auf, sind zentrale Orte, wo diese ausgeübt wird.

Für Facebook und Instagram gibt es seit vorigem Jahr ein Oversight Board, eine Art Aufsichtsgremium. Auch die Idee, Plattformräte einzuführen, um die Moderation demokratischer zu gestalten, steht im Raum. Was versprechen Sie sich von diesen Initiativen?

Das ist sehr spannend. Facebook hat dem Oversight Board auch die Frage vorgelegt, ob der Trump-Ban rechtens ist, und die verbundene Frage, ob sie in Zukunft Politiker-Accounts weiterhin anders behandeln sollen. Es ist vollkommen richtig, dass Facebook das tut. Denn wir können uns nicht damit zufrieden geben zu sagen: Unsere persönliche Kommunikation beruht auf dem Grundgesetz. Aber wenn wir online gehen, etwa auf Facebook, dann hat Mark Zuckerberg das letzte Wort. Klar: Das Oversight Board ist nicht perfekt, weil es organisatorisch in gewisser Weise an Facebook angegliedert ist. Aber es ist eine wichtige Initiative mit Beispielcharakter. Das zeigt sich auch darin, dass die Idee gerade stark diskutiert wird, Plattformräte einzusetzen und sie wie Rundfunkräte zu gestalten. Rundfunkräte haben ja die Aufgabe, die gesellschaftliche Vielfalt abzubilden und das in der Programmplanung zu berücksichtigen.

Haben Internetplattformen wie Facebook denn die Verantwortung, die gesellschaftliche Vielfalt darzustellen?

Wenn wir so argumentieren, sind wir nahe daran, sie zu öffentlichen Kommunikationskanälen zu machen, die in der Tat Vielfaltspflichten hätten. Daher sollten solche Plattform-Räte erst einmal vor allem über konkrete Rechtsfragen entscheiden: Was darf online bleiben und was nicht? Sollten berühmte Politiker entfernt werden oder nicht? Es geht ja nicht nur um Amerika. Es gibt ganz ähnliche Fälle in anderen Ländern, die hier nur nicht so bekannt sind. Kurz nach Trump wurde auch der Regierungssprecher von Präsident Yoweri Museveni in Uganda etwa gesperrt. Daraufhin hat Museveni vor der Wahl Mitte Januar alle sozialen Netzwerke abgeschaltet.

Sehen Sie die Gefahr, dass auf den Plattformen bestimmte Positionen aus ideologischen Gründen weniger Raum bekommen als andere?

Fehlerhafte Löschungen sind in der Regel nicht auf eine ideologische Verschwörung zurückzuführen, sondern auf falsch eingestellte Algorithmen. Twitter zum Beispiel ist zuletzt vor Wahlen auch in Deutschland stärker gegen Desinformation vorgegangen. Da wurden zahlreiche Accounts von Nutzern und Politikern aus dem linken Spektrum gesperrt, weil sie Witze an die Adresse der AfD-Wähler gepostet hatten, die sachlich gesehen eine irreführende Information zur Wahl beinhalteten. Das war aber keine Verschwörung gegen die Linken, genauso wie es keine Verschwörung gegen Rechts ist, wenn überproportional viele rechte Accounts entweder inhaltlich geprüft oder gelöscht werden, gerade in Amerika. Das liegt einfach daran, dass es dort vor allem die Accounts von rechten Meinungsmachern waren, die Desinformation verbreiteten. Gleichzeitig dürfen wir die Algorithmen nicht aus der Pflicht nehmen. Denn natürlich geschieht durch sie eine menschengemachte und gewollte Steuerung. Empfehlungsalgorithmen bringen auch Menschen mit Extrempositionen zusammen, weil der Algorithmus erkennt: Diese Nutzer interessieren sich für dasselbe Thema.

Das heißt, die Plattformen müssten sogenannte Filterblasen verhindern?

Das Problem der Filterblasen im Netz ist empirisch schwer nachzuweisen. Allerdings gibt es die Tendenz, dass Menschen in bestimmten Gruppen radikaler werden und sich gegenseitig bestärken, wenn sie nur unter sich bleiben. Wir müssen also stärker darauf achten, dass einzelne Gruppen sich nicht von der Gesellschaft abkapseln. Das ist ein Dilemma: Die Online-Kommunikation wird zu Recht nicht vom Staat überwacht, das ist ganz wichtig. Gleichzeitig besteht das Problem, dass Menschen im Internet extremistischer werden können, dass hier Publikationsprozesse laufen und Informationen geteilt werden, die oft den gesellschaftlichen Zusammenhalt stark herausfordern. Damit meine ich nicht nur Plattformen wie Facebook, es geht auch um alternative Kanäle wie Telegram zum Beispiel. Da sollten wir schauen, ob es einen Regulierungsbedarf gibt.

Das Ziel einer Regulierung ist, Desinformation zu beschränken. Bei umkämpften Themen wie etwa Corona oder dem Klimawandel gibt es unterschiedliche wissenschaftliche Positionen, die teilweise auch dem Mainstream widersprechen. Wie sollen die Plattformen festlegen, ab wann etwas Desinformation ist?

Jemand muss diese Entscheidung treffen, was online gesagt werden darf und was nicht. Je kleiner eine Plattform, desto geringer der Druck, dass das geschieht. Wenn ich auf meinem eigenen Blog schreibe: „Trinkt Putzmittel, das hilft gegen Corona“, ist die Breitenwirkung gering. Auf Plattformen, die von vielen Menschen genutzt werden, kann es gefährlich sein, derartige Informationen zu verbreiten. Besonders gefährlich wird es natürlich, wenn das noch dazu ein Politiker und Meinungsmacher behauptet.

Plattformen haben auch unter dem Druck der Politik mehr Moderationsteams aufgestellt. Für Faktenchecks arbeiten sie mit externen Dienstleistern zusammen, etwa Zeitungen oder der Initiative correctiv.org. Es wird da keinen Faktencheck geben, ob Herr Streeck oder Herr Drosten Recht hat mit bestimmten Details zur Corona-Bekämpfung. Da geht es um große Dinge, wenn zum Beispiel Corona-Leugner sagen, dass Herr Gates irgendwelche kleinen Chips im Impfstoff versteckt, womit wir jetzt alle überwacht werden. Aber wir müssen auf jeden Fall weiterhin ein Auge darauf richten, um dem vorzubeugen, dass hier zu intensiv in den an sich guten Meinungskampf eingegriffen wird.

Wäre ein Twitter-Kanzler, wie Trump das als Präsident gewesen ist, in Deutschland denkbar? Und könnte er auf der Plattform gesperrt werden?

Nach deutschem Recht wäre ein Twitter-Kanzler, wie Trump es war, überhaupt nicht denkbar, weil die öffentlichen Stellen an bestimmte inhaltliche Prinzipien gebunden sind, wenn sie kommunizieren – viel stärker als etwa die zivilgesellschaftliche Kommunikation oder auch die der Opposition. Es gibt etwa das Gebot der Sachlichkeit, der Richtigkeit, der Verhältnismäßigkeit. Das wurde schon in vielen Gerichtsverfahren ausgearbeitet. Gerade im Kontext öffentlicher Kritik an AfD und NPD: Was dürfen da staatliche Stellen sagen? Staatliche Akteure haben keine absolute parteipolitische Neutralität, sie müssen sich natürlich auch politisch verteidigen können. Aber sie müssen in all ihrer öffentlichen Kommunikation für freiheitlich-demokratische Grundwerte eintreten, müssen sich an Prinzipien wie Klarheit und Vollständigkeit der Kommunikation halten, und sie müssen immer deutlich machen, wer der Urheber ist – der Staat oder ein Politiker als Privatperson?

Das ist in Deutschland viel stärker rechtlich eingehegt als in Amerika. Dort hat ein Gericht festgestellt, dass Trumps Twitter-Konto nicht als staatliches Informationsmedium gilt, lediglich die Kommentarfunktion darunter. Schaut man sich die deutsche Rechtsprechung an, wäre es auch unwahrscheinlich, dass einer Kanzlerin oder einem Minister der Account gesperrt werden könnte – außer wenn sich diese Person zu einer Hassrede oder Desinformation versteigt. Aber das dürfte sie wegen der Kommunikationsgebote für staatliche Akteure ohnehin nicht.

Vielen Dank für das Gespräch!

pro: Mehrere Social-Media-Plattformen haben Donald Trump wegen des Aufstandes gegen das Wahlergebnis gesperrt. War das korrekt?

Matthias C. Kettemann: Rechtlich ja. Die Plattformen haben das nach ihren Allgemeinen Geschäftsbedingungen getan. Gleichzeitig ist es aber hochproblematisch, dass sie derartige Entscheidungen überhaupt treffen können. Schlussendlich waren es die Einzelentscheidungen einzelner Geschäftsführer wie Mark Zuckerberg von Facebook oder Jack Dorsey von Twitter. Sie üben einen enormen Einfluss auf die Kommunikation im Internet aus. In der Offline-Welt gibt es keine Parallelen für so etwas.

Twitter und Facebook hätten Trump schon früher sperren können, aber das Risiko sei zu hoch gewesen, haben sie in einem Interview erklärt. Warum das?

Twitter und Facebook und all die anderen haben lange Zeit Politiker geduldet, die sich nicht ganz an die Regeln der Plattformen gehalten haben, weil sie fanden, dass die Politiker aufgrund ihrer Bedeutung ein Sprachrohr verdienen. Twitter und Facebook haben das explizit in ihre AGB hineingeschrieben. Trump durfte also mehr sagen als ein „normaler“ Nutzer. Die Plattformen waren aber in den USA starker Kritik ausgesetzt, dass sie angeblich ideologisch moderieren. Gerade die rechten Kräfte rund um Trump und die konservative Partei haben den Mythos vorangetrieben, dass die sozialen Medien eine linke Verschwörung seien. Das ist wissenschaftlich überhaupt nicht nachweisbar. Im Gegenteil: Wir haben anhand von Leaks nachzeichnen können, dass sich die Plattformen in der ganzen Trump-Zeit äußerst bemüht haben, alle Änderungen in den Geschäftsbedingungen zuerst daraufhin zu testen, ob sie nicht zufällig alternative Medien oder Blogger aus dem Trump-Universum negativ beeinflussen. Diese Angst vor der Trump-Community ist jetzt nicht mehr stark gewesen. Außerdem, wie auch Nick Clegg, das zuständige Vorstandsmitglied für die Public Policy gemeint hat: Trump hat jetzt noch konkreter zur Gewalt aufgefordert als bisher.

Ist das dann Zensur gewesen?

Zensur im klassischen Sinne findet dann statt, wenn eine öffentliche Einrichtung einem das Wort verbietet. Das heißt, es ist keine Zensur, wenn eine Plattform jemanden aussperrt oder Inhalte löscht. Was wir hier haben, ist die Regulierung von Onlinekommunikation, primär nach den eigenen Geschäftsbedingungen. Aber zumindest in Deutschland ist das nicht ausreichend. Die Gerichte haben anerkannt, dass die Plattformen, wenn sie besonders mächtig geworden sind für die öffentliche Kommunikation, eben nicht nur eigene Regeln setzen und durchsetzen dürfen, sondern auch an die Grundrechte gebunden sind. Sie müssen zum Beispiel den Gleichheitssatz beachten, dürfen also nicht willkürlich Nutzer ungleich behandeln. Sie dürfen nicht sagen: Diese Partei mag ich nicht, deren Account wird gelöscht. Dazu gibt es auch schon eine ganze Reihe von Gerichtsurteilen. 2019 hat etwa das Bundesverfassungsgericht Facebook in einem Beschluss verboten, dass es einer rechtsextremen Kleinstpartei vor der Europawahl den Zugang entzieht. In Amerika ist das anders. Ein Gesetz von 1996 namens „Section 230“ immunisiert die Plattformen von Verantwortung und erlaubt ihnen, mehr oder weniger nach Belieben zu löschen.

Müssen Plattformen die Meinungsfreiheit garantieren?

Inwieweit die Meinungsäußerungsfreiheit auch für Plattformen an sich gilt, ist gerade eine riesige Frage. Die Plattformen sind nicht ohne weiteres daran gebunden, weil es eben private Akteure sind. Andererseits üben sie einen großen Einfluss auf die Meinungsäußerungsfreiheit auf, sind zentrale Orte, wo diese ausgeübt wird.

Für Facebook und Instagram gibt es seit vorigem Jahr ein Oversight Board, eine Art Aufsichtsgremium. Auch die Idee, Plattformräte einzuführen, um die Moderation demokratischer zu gestalten, steht im Raum. Was versprechen Sie sich von diesen Initiativen?

Das ist sehr spannend. Facebook hat dem Oversight Board auch die Frage vorgelegt, ob der Trump-Ban rechtens ist, und die verbundene Frage, ob sie in Zukunft Politiker-Accounts weiterhin anders behandeln sollen. Es ist vollkommen richtig, dass Facebook das tut. Denn wir können uns nicht damit zufrieden geben zu sagen: Unsere persönliche Kommunikation beruht auf dem Grundgesetz. Aber wenn wir online gehen, etwa auf Facebook, dann hat Mark Zuckerberg das letzte Wort. Klar: Das Oversight Board ist nicht perfekt, weil es organisatorisch in gewisser Weise an Facebook angegliedert ist. Aber es ist eine wichtige Initiative mit Beispielcharakter. Das zeigt sich auch darin, dass die Idee gerade stark diskutiert wird, Plattformräte einzusetzen und sie wie Rundfunkräte zu gestalten. Rundfunkräte haben ja die Aufgabe, die gesellschaftliche Vielfalt abzubilden und das in der Programmplanung zu berücksichtigen.

Haben Internetplattformen wie Facebook denn die Verantwortung, die gesellschaftliche Vielfalt darzustellen?

Wenn wir so argumentieren, sind wir nahe daran, sie zu öffentlichen Kommunikationskanälen zu machen, die in der Tat Vielfaltspflichten hätten. Daher sollten solche Plattform-Räte erst einmal vor allem über konkrete Rechtsfragen entscheiden: Was darf online bleiben und was nicht? Sollten berühmte Politiker entfernt werden oder nicht? Es geht ja nicht nur um Amerika. Es gibt ganz ähnliche Fälle in anderen Ländern, die hier nur nicht so bekannt sind. Kurz nach Trump wurde auch der Regierungssprecher von Präsident Yoweri Museveni in Uganda etwa gesperrt. Daraufhin hat Museveni vor der Wahl Mitte Januar alle sozialen Netzwerke abgeschaltet.

Sehen Sie die Gefahr, dass auf den Plattformen bestimmte Positionen aus ideologischen Gründen weniger Raum bekommen als andere?

Fehlerhafte Löschungen sind in der Regel nicht auf eine ideologische Verschwörung zurückzuführen, sondern auf falsch eingestellte Algorithmen. Twitter zum Beispiel ist zuletzt vor Wahlen auch in Deutschland stärker gegen Desinformation vorgegangen. Da wurden zahlreiche Accounts von Nutzern und Politikern aus dem linken Spektrum gesperrt, weil sie Witze an die Adresse der AfD-Wähler gepostet hatten, die sachlich gesehen eine irreführende Information zur Wahl beinhalteten. Das war aber keine Verschwörung gegen die Linken, genauso wie es keine Verschwörung gegen Rechts ist, wenn überproportional viele rechte Accounts entweder inhaltlich geprüft oder gelöscht werden, gerade in Amerika. Das liegt einfach daran, dass es dort vor allem die Accounts von rechten Meinungsmachern waren, die Desinformation verbreiteten. Gleichzeitig dürfen wir die Algorithmen nicht aus der Pflicht nehmen. Denn natürlich geschieht durch sie eine menschengemachte und gewollte Steuerung. Empfehlungsalgorithmen bringen auch Menschen mit Extrempositionen zusammen, weil der Algorithmus erkennt: Diese Nutzer interessieren sich für dasselbe Thema.

Das heißt, die Plattformen müssten sogenannte Filterblasen verhindern?

Das Problem der Filterblasen im Netz ist empirisch schwer nachzuweisen. Allerdings gibt es die Tendenz, dass Menschen in bestimmten Gruppen radikaler werden und sich gegenseitig bestärken, wenn sie nur unter sich bleiben. Wir müssen also stärker darauf achten, dass einzelne Gruppen sich nicht von der Gesellschaft abkapseln. Das ist ein Dilemma: Die Online-Kommunikation wird zu Recht nicht vom Staat überwacht, das ist ganz wichtig. Gleichzeitig besteht das Problem, dass Menschen im Internet extremistischer werden können, dass hier Publikationsprozesse laufen und Informationen geteilt werden, die oft den gesellschaftlichen Zusammenhalt stark herausfordern. Damit meine ich nicht nur Plattformen wie Facebook, es geht auch um alternative Kanäle wie Telegram zum Beispiel. Da sollten wir schauen, ob es einen Regulierungsbedarf gibt.

Das Ziel einer Regulierung ist, Desinformation zu beschränken. Bei umkämpften Themen wie etwa Corona oder dem Klimawandel gibt es unterschiedliche wissenschaftliche Positionen, die teilweise auch dem Mainstream widersprechen. Wie sollen die Plattformen festlegen, ab wann etwas Desinformation ist?

Jemand muss diese Entscheidung treffen, was online gesagt werden darf und was nicht. Je kleiner eine Plattform, desto geringer der Druck, dass das geschieht. Wenn ich auf meinem eigenen Blog schreibe: „Trinkt Putzmittel, das hilft gegen Corona“, ist die Breitenwirkung gering. Auf Plattformen, die von vielen Menschen genutzt werden, kann es gefährlich sein, derartige Informationen zu verbreiten. Besonders gefährlich wird es natürlich, wenn das noch dazu ein Politiker und Meinungsmacher behauptet.

Plattformen haben auch unter dem Druck der Politik mehr Moderationsteams aufgestellt. Für Faktenchecks arbeiten sie mit externen Dienstleistern zusammen, etwa Zeitungen oder der Initiative correctiv.org. Es wird da keinen Faktencheck geben, ob Herr Streeck oder Herr Drosten Recht hat mit bestimmten Details zur Corona-Bekämpfung. Da geht es um große Dinge, wenn zum Beispiel Corona-Leugner sagen, dass Herr Gates irgendwelche kleinen Chips im Impfstoff versteckt, womit wir jetzt alle überwacht werden. Aber wir müssen auf jeden Fall weiterhin ein Auge darauf richten, um dem vorzubeugen, dass hier zu intensiv in den an sich guten Meinungskampf eingegriffen wird.

Wäre ein Twitter-Kanzler, wie Trump das als Präsident gewesen ist, in Deutschland denkbar? Und könnte er auf der Plattform gesperrt werden?

Nach deutschem Recht wäre ein Twitter-Kanzler, wie Trump es war, überhaupt nicht denkbar, weil die öffentlichen Stellen an bestimmte inhaltliche Prinzipien gebunden sind, wenn sie kommunizieren – viel stärker als etwa die zivilgesellschaftliche Kommunikation oder auch die der Opposition. Es gibt etwa das Gebot der Sachlichkeit, der Richtigkeit, der Verhältnismäßigkeit. Das wurde schon in vielen Gerichtsverfahren ausgearbeitet. Gerade im Kontext öffentlicher Kritik an AfD und NPD: Was dürfen da staatliche Stellen sagen? Staatliche Akteure haben keine absolute parteipolitische Neutralität, sie müssen sich natürlich auch politisch verteidigen können. Aber sie müssen in all ihrer öffentlichen Kommunikation für freiheitlich-demokratische Grundwerte eintreten, müssen sich an Prinzipien wie Klarheit und Vollständigkeit der Kommunikation halten, und sie müssen immer deutlich machen, wer der Urheber ist – der Staat oder ein Politiker als Privatperson?

Das ist in Deutschland viel stärker rechtlich eingehegt als in Amerika. Dort hat ein Gericht festgestellt, dass Trumps Twitter-Konto nicht als staatliches Informationsmedium gilt, lediglich die Kommentarfunktion darunter. Schaut man sich die deutsche Rechtsprechung an, wäre es auch unwahrscheinlich, dass einer Kanzlerin oder einem Minister der Account gesperrt werden könnte – außer wenn sich diese Person zu einer Hassrede oder Desinformation versteigt. Aber das dürfte sie wegen der Kommunikationsgebote für staatliche Akteure ohnehin nicht.

Vielen Dank für das Gespräch!

Dieses Interview erschien in der Ausgabe 1/2021 des Christlichen Medienmagazins pro. Das Heft können Sie kostenlos online bestellen oder telefonisch unter 0 64 41 / 5 66 77 00.

Die Fragen stellte Jonathan Steinert

Schreiben Sie einen Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden.

Offline, Inhalt evtl. nicht aktuell