72. Deutscher Juris­tentag

Facebook und Co. – Gefahr für die öffent­liche Meinungs­bildung?

Pluralistisch und Transparent sollte Meinungsbildung sein. Doch ist dies im digitalen Zeitalter noch gewährleistet? Ein eindeutiges „Ja, natürlich!“ äußerte bei der Podiumsdiskussion auf dem 72. Deutschen Juristentag in Leipzig am 27. September 2018 nur Facebook-Vertreterin Rechtsassessorin Marie-Teresa Weber. Die Stimmen aus Politik, Justiz und Wissenschaft in der „Aktuellen Stunde“ sahen die Beeinflussung der öffentlichen Meinungsbildung durch soziale Medien deutlich kritischer, so auch Richter des Bundesverfassungsgerichts Prof. Dr. Andreas Paulus. Ein entscheidungserheblicher Einfluss auf bisherige Wahlen wurde Algorithmen zwar nicht unterstellt, eine künftige Regulierung zur Prävention von Missbrauch aber teilweise gefordert.

Der Schutz der Meinungs­vielfalt spielt eine entschei­dende Rolle in unserer demokra­ti­schen Gesell­schaft. Helfen soziale Medien, endlich denen eine Stimme zu geben, die bisher nicht gehört wurden? Zeigen Inter­net­platt­formen wie Facebook gesell­schaft­liche Tendenzen auf? Oder verzerren Social Bots, Filter-Bubbles und Echokammern statt­dessen das öffent­liche Meinungsbild? Ist die Beein­flussung des Einzelnen überhaupt tatsächlich erkennbar und technisch nachweisbar? Kann einem Ungleich­ge­wicht in der öffent­lichen Meinungs­bildung mit den zur Verfügung stehenden Mitteln effektiv entge­gen­ge­wirkt werden? Die Referenten disku­tierten über technische Kontrollen, recht­liche Vorschriften, den Medien­ko­ope­ra­ti­ons­vertrag oder über Schul­un­ter­richt für einen sensi­bi­li­sierten Umgang mit sozialen Medien.

Selbstverstärktes Weltbild: Gibt es Echokammern?

Als eine der größten Bedrohungen der Meinungsbildung im digitalen Raum werden sogenannte Filterblasen und Echokammern gesehen. Hier werden Nutzern sozialer Plattformen priorisiert personalisierte Inhalte angezeigt, die die eigenen Interessen und die eigene Meinung widerspiegeln. Doch gibt es diese Echokammern wirklich? Nach der Kommunikationswissenschaftlerin Prof. Dr. Birgit Stark (Universität Mainz) können durch Algorithmen gefilterte Inhalte in sozialen Medien den Nutzen durchaus ein verzerrtes Bild des öffentlichen Meinungsspektrums liefern. Diese Effekte fallen jedoch deutlich geringer aus, als noch vor zehn Jahren angenommen. Insbesondre müsse hier berücksichtigt werden, dass Information nach wie vor über verschiedene und nicht ausschließlich algorithmisierte Quellen erfolge. Jedoch bürgen gefiltert angezeigte Inhalte das Risiko, dass Themen und Meinungen als wichtiger und einem größeren Konsens zugrundeliegend wahrgenommen werden, als dies tatsächlich der Fall ist. „In einer Online-Diskussion besteht gern mal das Wort desjenigen am Ende, der am lautesten schreit“, beschrieb Stark das Problem.

Lösen stattdessen zufällige Inhalte Polarisierung aus?

Für Marie-Teresa Weber (Public Policy Manager, Facebook Germany GmbH) ist die Auslese der konsumierten Inhalte in der digitalen Welt nicht stärker als in der realen: Auch hier umgebe man sich mit Menschen ähnlicher gesellschaftlicher Stellung und politischer Meinung. Soziale Netzwerke wie Facebook würden es hingegen ermöglichen, auch Nachrichten über Kontakte aus einem vorherigen Lebensabschnitt zu erhalten, die einen analog schon nicht mehr erreichten. So würde das Spektrum an – zumindest privaten - Informationen sogar breiter werden. „Wir untersuchen derzeit in Zusammenarbeit mit Forschern den Effekt der Polarisierung: Es ist möglich, dass Menschen durch einen Beitrag, der so gar nicht ihrem Weltbild entspricht, abgestoßen und nur noch mehr in ihrer eigenen Wahrnehmung bestätigt würden.“

Sind die Nutzer in der Verantwortung für konsumierte Inhalte?

„Die Meinungsbildung in sozialen Netzwerken ist per se kein Problem“, sagte Richter des Bundesverfassungsgerichts Prof. Dr. Andreas Paulus. „Eine entsprechende Bildung der Nutzer ist allerdings erforderlich, um damit umzugehen.“ Man dürfe insbesondere nicht vergessen, dass eine Online-Plattform eben nicht Rundfunk sei, insbesondere könne man in den Rundfunkbegriff von 1945 nicht das Internet mithineinlesen. Der öffentlich-rechtliche Rundfunk habe eine Verpflichtung der Qualität und des Pluralismus. Vor diesem Hintergrund sprach Paulus sich noch einmal im Sinne der Rundfunkentscheidung dafür aus, dass die Gewährleistung und Errichtung eines staatlichen finanzierten Rundfunks auch die Zurverfügungstellung von Mitteln für eine unabhängige Berichterstattung mit umfasse, dort, wo sie sich nicht selbst organisieren könne. Ministerialdirektor Dr. Günter Winands (Amtschef der Beauftragten der Bundesregierung für Kultur und Medien) sprach sich im Zusammenhang mit dem Medienstaatsvertrag dafür aus, dass jeden, der Gefährdungsmöglichkeiten schaffe, auch Sicherungspflichten treffen müssen: „Das Internet ist eben nicht die bloße Infrastruktur, als die es zu Beginn gesehen wurde: Jugendschutz, Sichtbarkeit und Transparenz müssen im Internet gewahrt bleiben.“

Verdrehen Social Bots die Wahrheit zu „Fake News“?

Social Bots, die so program­miert werden können, dass sie auf Beiträge im Netz gezielt reagieren und scheinbar mit anderen Netzteil­nehmern inter­a­gieren, können automa­ti­siert Meinungen und Infor­ma­tionen verbreiten – insbe­sondere auch sogenannte „Fake News“. Die Teilnehmer der Podiums­dis­kussion distan­zierten sich auf der Veran­staltung von der Verwendung des Begriffes „Fake News“, da die Meinungs­plu­ralität ja gerade geschützt werden müsse. Es gebe nicht nur eine „Wahrheit“, sondern eben unzählige Meinungen. Sobald ein Social Bot bei Facebook identi­fi­ziert werde, werde der Account vom Netz genommen, berichtete Weber. Entspre­chende technische Prüfungs­ak­tionen würden insbe­sondere im Vorfeld von Wahlen durchgeführt. Der automa­tische Upload von Inhalten durch einzelne Nutzer sei jedoch möglich. Faktisch falsche Nachrichten könnten von Nutzern an Facebook gemeldet werden, wo sie von „Fakten­che­ckern“ geprüft werden. Als unkorrekt identi­fi­zierte Meldungen würden den Nutzern aller­dings weiterhin angezeigt – in Verbindung mit als korrekt einge­stuften Artikeln, um den Nutzern die Möglichkeit zu geben, ihre Meinung zu überdenken. „Das eigent­liche Problem an Bots sind aber nicht die falschen Nachrichten, sondern das falsche Bild einer Mehrheits­meinung, das durch sie erzeugt werden kann“, sagte Winands. So könnten beispiels­weise tausende E-Mailan­fragen zu einem Anliegen gesendet werden, hinter dem eigentlich nur einige wenige stehen: „Dies gefährdet die Gleich­stellung der Meinung des Einzelnen, wenn er sie als die von vielen ausgeben kann.“ Abhilfe könnte hier die Verpflichtung zur Kennzeichnung des Verfassers schaffen, wie sie beispiels­weise auch bei analog verteilten Flyern vorge­schrieben ist.

Die Anonymität des Internets: Freiheit oder Falschheit?

Der Vorsitzender des Deutschen Ethikrates Prof. Dr. theol. Peter Dabrock plädierte eindringlich für den Erhalt der Möglichkeit von Anonymität im Internet: „Es ist ein hohes Gut, dass die Anonymität noch zugelassen wird, auch wenn es noch so sehr missbraucht wird.“ Zudem gebe es kein Recht, in der Anonymität Rechtswidrig zu handeln, ergänzte Prof. Dr. Paulus. Die Verfolgung der entsprechenden Personen bei Verstößen sei hierdurch nicht ausgeschlossen. Problematisch sei laut der Referenten allerdings das „Microtargeting“, bei dem einzelnen Nutzer mit speziell auf sie zugeschnittenen Informationen versorgt werden, die für Netzteilnehmer außerhalb der anvisierten Zielgruppe nicht sichtbar seien. Eine Korrektur dieser Meldungen sei demnach für Nichtbetroffenen nicht möglich und für Betroffene ist die Manipulation kaum bis nicht erkennbar. Facebook plant – laut Weber - künftig eine Kennzeichnung geschalteter Werbung und Kampagnen, die allen Nutzen den Einblick in die gesamte Kampagne ermöglichen soll sowie Transparenz über Initiator und Zielgruppe. So hoffe Facebook, als Vorreiter auch andere Unternehmen zu mehr Transparenz anzuregen.

In der Schluss­runde der Veran­staltung wurde deutlich, dass derzeit noch keine eindeutige recht­liche Lösung für dieses gesell­schaft­liche Phänomen gefunden ist – und eine solche vielleicht auch gar nicht abschließend möglich ist. Die abschließenden State­ments warfen zumindest eher weitere Fragen auf: Wie kann Qualitätsjour­na­lismus gewährleistet werden, in Zeiten eines Wettbe­werbs der Tages­zei­tungen um Online­pu­bli­ka­tionen? Wie viel Infor­mation über die Funktion von Platt­formen und Online­diensten ist notwendig, um Trans­parenz und die gleich­be­rech­tigte Parti­zi­pation aller Teilnehmer zu gewährleisten? Kann die infor­mierte Bewertung von Onlin­ein­halten allein in die Verant­wortung der Nutzer gegeben werden? Wie kann ein Bewusstsein für die Dynamik und Gefahren digitaler Meinungs­bildung geschaffen werden?

Moderator und Initiator Rechtsanwalt Prof. Dr. Thomas Mayen – Präsident der Deutschen Juristentage 2016 und 2014 (und Vorsitzender des DAV-Verfassungsrechtsausschusses) - konnte mit der Veranstaltung den Diskussionsbedarf zum Thema verdeutlichten und sprach sich für eine Auseinandersetzung mit der Thematik auf künftigen Veranstaltungen aus. Genug diskussionswürdige Ansätze und offene Fragen gibt es hierfür in jedem Fall.

 


Zurück