SichtWeisen

Schränken Algorithmen unsere Informationsfreiheit ein?

Demokratien brauchen Meinungsaustausch. Damit sich Bürger*innen zu ihren Meinungen austauschen, müssen sie sich erstmals Meinungen bilden können und dazu brauchen sie einen uneingeschränkten Zugang zu Informationen. Darum wird in Artikel 16 der Schweizer Bundesverfassung neben der Meinungs- auch die Informationsfreiheit garantiert. Neue mediale und technologische Entwicklungen, wie soziale Netzwerke oder künstliche Intelligenz, haben einen starken Einfluss auf die Art und Weise, wie wir zu Informationen kommen. Um beide Grundrechte weiterhin gewährleisten zu können, müssen wir diesen Einfluss besser verstehen und entsprechende Massnahmen ergreifen.

Meinungs- und Informationsfreiheit bedeutet unter anderem, dass der Staat keine Zensur betreiben darf (mit ganz wenigen Ausnahmen). Das Zensurverbot richtet sich aber nicht an private Anbieter. Facebook kann zum Beispiel Inhalte löschen und Twitter kann User-Accounts blockieren, ohne dabei ein Gesetz zu verstossen. Das haben die grossen Tech-Konzerne bisher aber nur in extrem wenigen Fällen getan. Man kann also sagen, dass auf den sozialen Netzwerken grundsätzlich Meinungsfreiheit gilt. Beim “uneingeschränkten Zugang zu Informationen” wird es aber etwas kniffliger. Soziale Netzwerke wie Facebook, Twitter oder YouTube funktionieren nämlich nicht wie Telefonbücher, in denen jede Zeile gleich gewichtet wird. Was für Inhalte, wie und wo diese angezeigt werden, hängt von den Präferenzen der User*innen, ihrem Alter, ihrem Standort und vielem Weiterem ab. Die Algorithmen, welche diesen Prozess bestimmen, werden von den meisten Tech-Konzernen streng geheim gehalten.

Algorithmen und Filterblasen

In der Schweiz benutzen mittlerweile über 80 % der Bevölkerung soziale Netzwerke. Auf ihnen sind vermehrt politische Inhalte zu finden. Sie spielen, gerade bei jüngeren Generationen, eine grosse Rolle in der politischen Meinungsfindung. Werden diese Inhalte für jede*n Benutzer*in algorithmisch kuratiert, entstehen dabei viele Risiken. Die Algorithmen tendieren dazu, den Benutzer*innen Inhalte anzuzeigen, die ihrer politischen Meinung entsprechen. So bekommen die Benutzer*innen immer nur die eigene Meinung bestätigt; es entstehen Filterblasen. Dieses Problem wird verschärft durch den Einsatz von Machine Learning-Algorithmen.

Wenn nur die Maschinen den Durchblick haben

Machine Learning ist ein Sammelbegriff für künstliche Intelligenz, welche anhand von grossen Datensätzen Muster und Gesetzmässigkeiten erkennt und somit selbstständig “lernt”. YouTube zum Beispiel setzt die Technologie bei den Videovorschlägen ein, um Sehdauer und Clickraten zu maximieren. Das hat bei YouTube bekanntlich den unerwünschten Nebeneffekt gehabt, dass Inhalte von Extremist*innen, Verschwörungstheoretiker*innen und Randgruppierungen öfters vorgeschlagen wurden, weil diese zu mehr Clicks führten. Machine Learning-Algorithmen stellen ein besonderes Risiko dar, weil nicht mal mehr der Anbieter durchblicken kann, nach welchen Regeln sie funktionieren. Der Maschine wird quasi freien Lauf gelassen.

Tragische Resultate

Ein extremes Beispiel für die Risiken von Online-Extremismus war das Attentat von Christchurch, an dem 51 Menschen ihr Leben verloren. Die xenophobische Radikalisierung des Täters hatte unter anderem auf YouTube stattgefunden. YouTube gab nach dem Attentat bekannt, dass sie Massnahmen einführen würden, um extremistische Inhalte auf der Plattform frühzeitig zu erkennen und zu löschen. Doch auch wenn Online-Extremismus dadurch gebremst werden kann, löst das nicht das grössere Problem: Wenn die Inhalte auf den sozialen Netzwerken von Maschinen für uns kuratiert werden, ohne menschliche Überwachungsinstanz, verzerrt dass unseren Zugang zu Informationen und hat negative Auswirkungen auf Meinungsbildung und für unsere Demokratie. Entweder müssen soziale Netzwerke transparent aufzeigen, wie sie mit ihren Inhalten umgehen oder sie müssen staatlich reguliert werden.

image_pdfDownload als PDF

Leander Lelouvier

Leander Lelouvier (21) ist gebürtiger Südtiroler, hat in den Niederlanden internationale Beziehungen studiert und wohnt heute in Zürich, wo er als freier Journalist schreibt. Am meisten interessiert er sich für die lokalen Auswirkungen globaler Entwicklungen. Wie diese die Bodenseeregion prägen, dem wird Leander im kommenden Jahr für SichtWeisen nachgehen.

Jetzt zum monatlichen Newsletter anmelden!

SichtWeisen – ein Projekt der IBK

Unter «SichtWeisen» werden relevante (Zukunfts)Themen von sechs Jungjournalist*innen professionell aufgearbeitet. «Next Generation Bodensee» möchte mit diesem Projekt der nächsten Generation im IBK-Raum eine politische Stimme geben.