Logo Rocketeer

KI und Rassismus

Programmierte Ungleichheit

Moralbegabte Algorithmen
Moralbegabte Algorithmen
Künstliche Intelligenz ist nicht immer fair. Sie kann sogar rassistisch sein. Warum Algorithmen Vorurteile haben und wieso das ein Problem ist.

Insbesondere auf Social Media sind es Algorithmen, die bestimmen, was wir zu sehen bekommen. TikTok, Instagram oder Facebook: Auf der Timeline erscheint primär das, was eine KI für uns als relevant erachtet. Umso problematischer, wenn diese KI Muster und Denkstrukturen reproduziert, die bereits in unserer realen Gesellschaft ein Problem sind.

Twitteralgorithmus erkennt schwarze Haut nicht

Die Debatte um selbstlernende Algorithmen und ihre Vorurteile kam zuletzt beispielsweise wieder auf, als bekannt wurde, dass der Twitter Bildalgorithmus weiße Menschen bevorzugt und schwarze oft gar nicht erkennt. Wenn man auf Twitter ein Bild postet, wird dessen Preview automatisch zugeschnitten. Dazu versucht der Algorithmus relevante Teile des Bilds zu bestimmen und so beispielsweise Personen zentral anzuzeigen. Ein User fand heraus, dass dieser Algorhitmus in solchen Situationen weiße Personen schwarzen vorzieht. Er hatte eine Collage von Mitch McConnel und Barack Obama gepostet. Die Twitter-Bildvorschau zeigte aber immer MitchMcConnel. Auch eine veränderte Anordnung oder eine Anpassung der Krawattenfarbe half nichts.

Unterbewusster Bias

Der Twitter Algorithmus ist nicht absichtlich rassistisch. Doch seine Präferenzen spiegeln die unterbewussten Tendenzen derjenigen wider, die ihn programmiert haben. Solche Biase sind im Bereich der KI-Forschung nicht selten. Die meisten KI-Systeme werden eher mit Fotos weißer Menschen trainiert, weshalb sie Menschen mit dunklerer Hautfarbe schlechter erkennen.

Passanwärter von KI abgelehnt

Das Twitter Beispiel mag kein extrem schwerwiegendes sein. Doch die Hürden selbstlernender künstlicher Intelligenz, die es aufzeigt, können in anderen Situationen weitreichende Folgen haben. In Neuseeland hatten asiatische Passanwärter Schwierigkeiten, weil die Software ihnen die Anerkennung des Passfotos verweigerte. Der Grund: Die Augen seien geschlossen.

Predictive Policing

Und im Bereich des sogenannten „Predictive Policing“, also Polizeiarbeit aufgrund von Verbrechensprognosen, geht es nicht nur um Pässe, sondern Haftstrafen. Mittels Big Data und Maschinenlernen sollen dort Verbrechen verhindert werden, bevor sie begangen wurden. So kann die Software beispielsweise die Empfehlung für einen Polizeieinsatz um zwölf Uhr in der Innenstadt geben, weil um diese Uhrzeit statistisch gesehen die meisten Taschendiebe unterwegs sind. In den USA wurden solche Algorithmen von der Justiz eingesetzt, um die Rückfallwahrscheinlichkeit von Straftätern einzuschätzen. Die Software schätzte Schwarze wesentlich gefährlicher ein als Weiße.

Moralbegabte Maschinen

Wenn Menschen entscheiden, ist uns immer bewusst, dass diese Entscheidungen fehlbar und häufig subjektiv sind. Maschinen haben den Ruf, objektiv und vorurteilsfrei zu sein. Doch wenn Maschinen von Menschen lernen, übernehmen sie auch unbewusste Biase und Vorurteile. Damit Algorithmen uns dabei helfen, die Gesellschaft gerechter zu machen, müssen wir sie entsprechend programmieren.

Lies auch: