Zum Inhalt springen

Maschinen mit Vorurteilen

Last updated on 22. Juni 2022

von Niklas Stuhr

In den Augen vieler sind künstliche Intelligenzen die Heilbringer, die uns eine bessere Zukunft ermöglichen sollen. Damit sich dieser Traum nicht zum Alptraum entwickelt, muss noch einiges getan werden. Im Moment sind künstliche Intelligenzen dazu verdammt, die gleichen Fehler zu machen wie wir. Here’s why.

Vor ein paar Wochen machte ein Thread auf Twitter auf sich aufmerksam. Das ist erstmal nichts ungewöhnliches, schließlich gibt es dort jeden Tag etwas Neues, worauf sich gestürzt wird. Dort zu sehen waren hauptsächlich Bilder verschiedener US-Politiker. Auf den ersten Blick sah es so aus, als hätten da jemand einfach ein paar Bilder des Politikers Mitch McConnell gepostet, ohne ersichtlichen Grund. Erst bei Anklicken der Bilder wird klar, was es hiermit auf sich hat. Klickt man auf eines der Bilder, wird es in voller Größe geöffnet und man sieht, dass Mitch McConnell nur einen kleinen Ausschnitt des Bildes ausmacht. Über und unter ihm findet man den ehemaligen Präsidenten Barack Obama. Ja und?

Was dieses Beispiel aufzeigt, ist ein Problem, dass sich mittlerweile in der Techindustrie häuft. Es ist ein Beispiel, dass zeigt, dass auch Maschinen und künstliche Intelligenzen von Vorurteilen behaftet sein können. In diesem Fall wählt der Algorithmus von Twitter aus, welcher Bildausschnitt als Vorschau genutzt wird und entscheidet sich dabei immer für die Person mit der weißen Hautfarbe. Man spricht hier von einem „racial bias“.

Können Maschinen also auch rassistisch sein? JEIN.

Technologie und insbesondere Algorithmen bestimmen schon jetzt einen bedeutenden Teil unseres Lebens. Sie entscheiden, was wir sehen. Welcher Post wird dir bei Facebook vorgeschlagen, welche Werbung wird dir angezeigt und nicht nur das – in bestimmten Teilen der Erde bestimmen sie auch wie viele Einheiten der Polizei in bestimmten Nachbarschaften unterwegs sind, wie viel dein Haus wert oder wie gefährdet es für einen Brand ist. All diese Systeme handeln je nachdem, wie sie programmiert werden und mit welchen Daten sie gefüttert werden. Ein Algorithmus ist also keineswegs objektiv und unabhängig. Es spielt eine große Rolle, wer sie erschafft und vor allem wie diese Person sie nutzt. Programmier*innen nutzen oft das sogenannte „machine learning“, um einen Algorithmus zu trainieren.

Trainieren ist hier auch das passende Wort, denn es ist genau das. Ein Algorithmus wird nach und nach mit immer mehr Daten gefüttert, auf Basis dieser er dann lernt, welche Entscheidungen er trifft. Das klingt erstmal fantastisch und futuristisch. Das Problem ist bloß, dass oft Daten genutzt werden, die 10 oder 20 Jahre alt sind, was zu einer Reproduktion vergangener Vorurteile und Ungleichheiten führen kann. Dazu kommt außerdem, dass die Systeme trainiert werden, Entscheidungen anhand statistischer Daten zu treffen. Die Probleme, die sie lösen sollen, sind aber oft keine zweidimensionalen Situationen, nichts in dem es ein objektives „richtig“ oder „falsch“ gibt. Das kann katastrophale Folgen haben. Die Professorin Safiya Umoja Noble etwa sagt dazu, dass in vielen dieser maschinellen Programme der soziale Kontext fehlt, der ihrer Meinung nach jedoch ungemein wichtig ist, besonders, um marginalisierte Gruppen zu schützen, die bereits im „echten“ Leben systematisch benachteiligt werden.

Das Problem mit „algorithmic bias“ gibt es auch in alltäglichen Anwendungen wie Streaming. Auf Spotify zeigte sich etwa in einem Experiment von „The Baffler“, dass der Algorithmus bestehende Ungleichheiten in der Repräsentation männlicher und weiblicher Künstler*innen bestärkt. Selbst bei einem neu erstellten Account wurde gezeigt, dass der Algorithmus von Spotify vorwiegend männliche Künstler vorschlägt. So auch bei Martina McBride, die eine Country Playlist auf Basis eines Songs einer weiblichen Künstlerin erstellen wollte. Sie musste die Vorschläge über ein dutzend mal neu laden, bevor Spotify eine weitere weibliche Künstlerin vorschlug. Das mag jetzt auf das erste Lesen auch nicht dramatisch klingen, doch da steckt mehr hinter und es ist ein gutes Beispiel wie Algorithmen Vorurteile und Ungleichheiten reproduzieren. Spotify hat, wie jedes andere Unternehmen, das Interesse, dass du ihr Produkt so lange wie möglich benutzt. Das schwedische Unternehmen hat dafür in den letzten Jahren schlau gehandelt und seine Nutzer*innen dazu erzogen Playlisten anstatt ganze Alben zu hören.

Das ist ein Phänomen, das The Baffler als „lean-back listeners“ beschreibt, also „Zurücklehnhörer“. Dadurch werden die Konsument*innen von Musik passiver. In diese Kerbe kann Spotify reinschlagen. Der Algorithmus kann immer und immer weiter Musik vorschlagen, unendlich lang. Und welche Art Musik schlägt Spotify einem vor? Na klar, mehr Musik, wie die, die man sowieso schon gehört hat. Und ist dies die überwiegend männliche Musik, die einem von Beginn an eingetrichtert wurde, dann befindet man sich schnell in einem endlosen Zirkel von reproduzierten Ungleichheiten. Das Experiment von „The Baffler“ zeigt unter anderem, dass „RapCaviar“, eine der größten Playlists von Spotify nur eine weibliche Quote von etwa 8% hatte. Diese Playlists werden sorgfältig anhand von Daten erstellt. Soll nun etwa Musik auf Basis dieser Playlist vorgeschlagen werden, wird sie überwiegend männlich sein. Spotify versucht da natürlich gegen zu halten und kuratiert Playlists wie „Feminist Fridays“ oder Ähnliche, jedoch sind diese oft nicht mehr als „Othering“ nicht-männlicher Künstler*innen, also Brandmarkung als etwas anderes als der „normale Standard“ und hat oft nicht mehr als rein symbolischen Charakter.

Diese Algorithmen und ihre mathematischen Formeln sind also alles andere als allwissend und objektiv.

Sie werden von Menschen gemacht und können, genauso wie Menschen, auch Ungleichheiten und Vorurteile erlernen, basierend auf dem, was ihnen beigebracht wird. Die Personen, die Algorithmen programmieren agieren in einem sozio-kulturellen Kontext, der beim „machine learning“ schnell verloren gehen kann. US-Politikerin Elizabeth Warren beschrieb es so: „Algorithmen sind nur so gut, wie die Daten, die in sie gepackt werden.“ Wenn diese Daten also auf einem historisch ungleichen System beruhen, kann das Probleme machen. Also was tun?

Wichtig ist zunächst die Erkenntnis und die Wahrnehmung dafür, dass dieses Problem existiert, sowie das Wissen, dass Algorithmen keine allwissenden, objektiven Zaubermaschinen sind (auch, wenn sie oft so wirken). Dann ist es wichtig, dass die Teams, die solche Algorithmen bauen und trainieren so divers wie möglich sind. In einer Branche, die zum jetzigen Zeitpunkt beispielsweise noch sehr von Männern dominiert ist, würde etwa eine weibliche Perspektive mit Sicherheit nicht schaden. VOX entdeckte diesbezüglich etwa eine Studie, die herausfand, dass ein Algorithmus, der nur durch Sachen lernen sollte, die bereits im Internet stehen, Vorurteile gegen Frauen und schwarze Personen entwickelte. Diversität ist ein elementarer Faktor, der dazu beitragen kann diese blinden Flecke in technischen Programmen zu eliminieren. Es bleibt außerdem wichtig zu betrachten, wer Algorithmen nutzt und wofür. Die chinesische Regierung etwa nutzte künstliche Intelligenz, um Personen der muslimischen Minderheit der Uighuren ausfindig zu machen, viele landen in unmenschlichen Arbeitslagern.

Safiya Umoja Noble glaubt sogar, dass künstliche Intelligenz in der Zukunft ein großes menschenrechtliches Problem sein wird. Sie schreibt, dass wir erst jetzt langsam die Langzeitfolgen von Technologien dieser Art erkunden. Sie appelliert, dass bei der Entwicklung und Nutzung dieser Technologien kritischer begutachtet werden soll, in welchem kulturellen Kontext sie existieren. Was geht verloren? Wem könnte sie schaden? Und vielleicht am allerwichtigsten: Wie können wir sie verbessern?

Für mehr Content folgt uns auf Instagram unter @alsbaldmagazin
Folgt außerdem Niklas bei Instagram unter @niklassthr

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.