SichtWeisen
Algorithmus als Rassismus-Tool | SichtWeisen | Foto von Andrea Piacquadio von Pexels

Können Algorithmen Rassisten sein?

Algorithmen begegnen uns tagtäglich, auch wenn uns dies vielleicht nicht so bewusst ist. Unter anderem sortieren sie Informationen, ordnen Ergebnisse nach Relevanz oder analysieren Texte. Algorithmen kommen in verschiedensten Branchen und Situationen zum Einsatz. So können sie erheblichen Einfluss auf uns und unseren Relevanzbegriff haben.

Die Funktionsweisen von Algorithmen sind schwer zu erklären. Ursprünglich kommt der Begriff aus der Mathematik, heute ist aber vor allem die Begriffsdefinition aus der Informatikwelt verbreitet. Sehr simpel erklärt, sind Algorithmen Sets aus Regeln und Instruktionen, welche designt werden, um ein Problem zu lösen. In der Anwendung sind diese aber deutlich komplizierter und werden auch ständig komplexer.

Da Algorithmen auch Informationen sortieren und Entscheidungen treffen, können diese diskriminieren. Dafür gibt es etliche Beispiele. So wurde in einer Studie von 2016 gezeigt, dass ein Algorithmus, welcher dafür entwickelt wurde, in den USA Straftaten vorherzusehen, systematisch rassistisch agierte. Als Hauptgrund dafür sahen die Autoren der Studie, die zugrundeliegenden Daten, welche für das Projekt verwendet wurden. Sie enthielten von Anfang an eine stark rassistisch gefärbte Verzerrung. Die Sozialwissenschaftlerin Safiya Noble hat in ihrem Buch «Algorithms of Oppression» (Algorithmen der Unterdrückung) diverse Beispiele dargelegt, wie Algorithmen von Suchmaschinen diskriminieren können. So waren die Suchergebnisse für «schwarze Mädchen» hauptsächlich pornographischer Art und beim Suchen nach «Händen» dominierten Bilder von weissen Händen. Beispiele wie diese gibt es unzählige.

Wie werden Algorithmen diskriminierend?

Doch wie kann so etwas passieren? Mehrere Faktoren haben einen Einfluss. Algorithmen wie die der Suchmaschinen werden laufend verändert und an die User angepasst. Verhalten sich diese rassistisch, wird sich dies auch im Algorithmus widerspiegeln. So kann eine Verzerrung, die in der Gesellschaft bereits existiert, auch von der Technologie übernommen und je nachdem auch verstärkt werden. Ein weiterer wichtiger Faktor liegt bei den Programmierer*innen eines Algorithmus. Ist deren Einstellung eher einseitig ausgeprägt, auf welche Seite auch immer, kann sich dies auch auf den Algorithmus übertragen, den sie programmieren.

Da das Problem so viele Seiten hat, gibt es auch keine simple Lösung dafür. Es ist sicher wichtig zu klären, wer die Verantwortung für diskriminierende und rassistische Algorithmen trägt. Dazu ist ein generell höherer Wissensstand zum Thema unumgänglich. Nur so ist mehr Leuten bewusst, welchen Einfluss Algorithmen haben können und dass auch deren Ergebnisse alles andere als neutral sind.

image_pdfDownload als PDF

Judith Ebnöther

Judith Ebnöther (21) ist für ihr Studium der Politik- und Kommunikationswissenschaften in die Bodenseeregion gezogen. Ihre Interessen sind extrem vielfältig und so möchte sie mit ihren Texten Ideen und Ansichten von verschiedensten Menschen und Thematiken beleuchten.

1 Kommentar

Jetzt zum monatlichen Newsletter anmelden!

SichtWeisen – ein Projekt der IBK

Unter «SichtWeisen» werden relevante (Zukunfts)Themen von sechs Jungjournalist*innen professionell aufgearbeitet. «Next Generation Bodensee» möchte mit diesem Projekt der nächsten Generation im IBK-Raum eine politische Stimme geben.