Computer können vieles besser als Menschen. Die Entwicklung von künstlicher Intelligenz und maschinellem Lernen unterstreicht das. Seit einiger Zeit zeigen die Rechner sogar ungeahnte Fähigkeiten: Programme können genauso rassistisch sein wie manche Mitmenschen.
Die Google-Software Vision Cloud soll Objekte auf Bildern erkennen. Das Programm beschriftete das Bild einer Hand, die ein Thermometer hält, mit „Hand“ und „Schusswaffe“ – aber nur, wenn die Hand dunkelhäutig war. Ansonsten wurde das Objekt als „elektronisches Gerät“ kategorisiert. Google hat den Algorithmus inzwischen geändert, sodass er nicht mehr die Bezeichnung Schusswaffen verwendet.
Programme können also Vorurteilen aufsitzen. In einem kontrollierten Umfeld, wo keine Konsequenzen daraus folgen, ist das harmlos. Sobald ein Algorithmus zur Entscheidungsfindung eingesetzt wird, können falsche Urteile bisweilen dramatische Folgen haben.
In den USA ist das bereits vorgekommen. Die Verwaltung von Broward County in Florida setzt eine Software ein, um abzuschätzen, ob ein Straftäter rückfällig wird. Anhand dessen entscheidet sich etwa, ob ein Angeklagter in Untersuchungshaft kommt oder auf freiem Fuß bleibt. Bei Schwarzen sagte die Software etwa doppelt so oft zu Unrecht eine Wiederholungstat vorher wie bei Weißen. Dagegen nahm die Software bei Weißen übermäßig häufig zu Unrecht an, dass kein solches Risiko bestünde. Ein menschlicher Rassist hätte es kaum schlechter machen können.
Ähnliche Fehler machen Programme zur Gesichtserkennung. Schwarze Frauen werden am häufigsten falsch identifiziert, wie die Washington Post berichtet. Die fraglichen Programme werden von den USA im Grenzschutz eingesetzt. Schwarze Frauen werden also häufiger zu Unrecht festgehalten, durchsucht und verhört.
Was macht Computerprogramme rassistisch? Den Entwicklern Böswilligkeit zu unterstellen, dürfte übertrieben sein. Ebenso wenig handelt die KI selbst aus bösem Willen.
Künstliche Intelligenz übt an bereitgestellten Datensätzen. So lernt sie etwa, welche Bilder mit welchen Begriffen korrelieren. Im nächsten Schritt werden dem Programm unbeschriftete Testbilder vorgelegt. Daran wird das Urteilsvermögen der Maschine überprüft. Bei solchem maschinellen Lernen ist es selbst für Programmierer oft nicht nachzuvollziehen, wie die Gegenstände erkannt werden. Nur das Ergebnis ist überprüfbar.
Wenn ein Algorithmus Vorurteile zeigt, sind mehrere Gründe möglich. Der Datensatz, an dem ein Programm lernt, kann unausgewogen sein und bestimmte Gruppen falsch repräsentieren. Zudem ist das Erstellen von Datensätzen aufwändig und damit teuer. Hersteller und Programmierer greifen daher gern auf bereits bestehende Datenbanken zurück – bei denen es oft keine Garantie für ausgewogene Repräsentation gibt.
Für Objekterkennung wird oft ImageNet genutzt. Dieser Datensatz umfasst über 14 Millionen per Hand beschriftete Bilder verschiedenster Motive. Knapp die Hälfte stammt aus den USA, während China und Indien zusammen nur etwa 3 Prozent ausmachen. Daher wird etwa eine Frau mit einem weißen Hochzeitskleid als Braut erkannt, mit typisch indischen Hochzeitskleidern aber nicht.
Soll eine Software Prognosen abgeben, tun sich weitere Probleme auf. So geschehen an einer medizinischen Fakultät in Großbritannien: Dort hielt eine Software Schwarze für schlechtere Bewerber. Sie orientierte sich dafür an einem Datensatz früherer, erfolgreicher Bewerber. Diese waren vorwiegend weiß. Von strukturellem Rassismus wusste die Software offenbar nichts.
Was könnte Vorurteile in Software vermeiden? Die Daten sollten möglichst repräsentativ sein. Ansonsten kann die KI mit einem moralischen Kompass ausgestattet werden. So kann ein Programm etwa den Befehl erhalten, Geschlecht und Hautfarbe bei der Auswahl von Bewerbern oder der Einschätzung von Straftätern zu ignorieren.
Die Entscheidungen des einen Programms lassen sich auch von einem anderen auf Vorurteile prüfen. Unter anderem entwickelt der IT-Konzern IBM Algorithmen, die das leisten sollen. Da bleibt nur die Frage: Wer kontrolliert die Kontroll-KI?
Von Nicolaus Niebylski
Nicolaus Niebylski studiert Biowissenschaften. Beim ruprecht ist er seit dem Sommersemester 2017 tätig – meist als Fotograf. Er bevorzugt Reportagefotografie und schreibt über Entwicklungen in Gesellschaft, Kunst und Technik. Seit November 2022 leitet er das Ressort Heidelberg. Zuvor war er, beginnend 2019, für die Ressorts Studentisches Leben, PR & Social Media und die Letzte zuständig, die Satireseite des ruprecht.