Künstliche Intelligenzen sind auch nur Menschen
Wie gut erkennen Algorithmen nicht-weiße Haut? Und wie stellen sie sich eine Zweierbeziehung vor? Fünf Beispiele dafür, wie KI Diskriminierung reproduziert.
Von Berit Glanz (fluter.)
Rassismus
Cremes, Seren und Toner – Kosmetikunternehmen wollen an unseren Skin Care Routines verdienen, und manche richten dafür auf ihren Websites eigene Beratungsprogramme ein: Man lädt ein Bild seiner Haut hoch, und eine künstliche Intelligenz errechnet daraus Produktempfehlungen. Geworben wird mit dem objektiven Blick des Computers, doch können seine Ergebnisse nicht nur Unreinheiten der Haut, sondern auch der Algorithmen zeigen. Und die sorgen beispielsweise dafür, dass nicht-weiße Haut schlechter erkannt wird. Die Firma Olay hat ihre Software auf diesen sogenannten Bias untersuchen lassen. Heraus kam, dass die Software das Alter der Haut von People of Color weniger genau einschätzen kann.
Nun mag es Verheerenderes geben als die falsche Creme – aber die Auswirkungen eines Bildalgorithmus mit Bias können auch viel drastischer sein. Die Algorithmic Justice League (AJL) aus den USA kritisiert zum Beispiel den Einsatz von Gesichtserkennung in der Polizeiarbeit oder bei Grenzkontrollen. AJL-Gründerin Joy Buolamwini und andere KI-Spezialistinnen wiesen 2018 kommerziellen Gesichtserkennungssoftwares einen Race- und Gender-Bias nach: Ihre Algorithmen waren insbesondere bei Aufnahmen Schwarzer Frauen deutlich fehleranfälliger.
Sexismus
Einen sogenannten Data Bias merkten auch viele Frauen, die sich mit der beliebten App „Lensa“ Avatare generieren lassen wollten – und ungewollt Softnudes von sich erhielten. Auf Grundlage von eigenen Fotos erstellt eine KI digitale Porträts und verwandelt die Nutzer:innen in magische Avatare. Für Männer generierte die Software in der Regel Avatare, in denen sie als Astronauten in ferne Galaxien schauen oder als wackere Elfenkrieger die Schwerter wetzen. Die Avatare für Frauen waren eher selten so heroisch, sondern leicht oder gar nicht bekleidet. Bei vielen war die Brust deutlich vergrößert, und für Menschen, die von der KI als asiatisch gelesen wurden, zeigte Lensa sexualisierte Avatare im Anime-Stil.
Die Ursache für diese Resultate ist vermutlich der riesige Bilddatensatz LAION-5B, mit dem die KI trainiert wurde. Für diese Trainingsdaten wurde das Internet nach Bildern durchsucht, deswegen ist auch viel pornografisches Bildmaterial enthalten, was vermutlich die Ursache für die Resultate der Lensa-App ist.
Klassismus
Auch wer einen Kredit beantragt, kann von einer künstlichen Intelligenz beurteilt werden. Banken setzen seit Jahren Software ein, um die Kreditwürdigkeit zu beurteilen und Zinssätze festzulegen. Eine Untersuchung von Forschern aus Stanford und der University of Chicago zeigt, dass diese Berechnungen ungenauer ausfallen, wenn sich jemand aus einer Minderheit oder mit weniger Einkommen bewirbt. Für Menschen aus dem untersten Einkommensfünftel war das errechnete Risiko für einen Kreditausfall zum Beispiel zehn Prozent ungenauer als für alle anderen. Das liegt daran, dass für Menschen dieser Einkommensgruppe weniger Daten vorliegen, weil sie weniger Kredite aufnehmen und nur wenige oder keine Kreditkarten besitzen. Das kann zu fehlerhaften Kreditvergaben führen – sowohl bei Ablehnungen als auch bei Zusagen, zum Beispiel bei Hypothekenkrediten, bei denen man den Kredit mit einer Immobilie absichert.
Ableismus
Wo jede Abweichung von der (statistischen) Norm eine Herausforderung ist, ist es für Menschen mit Behinderung besonders schwer. Viele von ihnen würden durch KI diskriminiert, beklagen Aktivist:innen. Das kann lebensgefährlich werden, zum Beispiel im Straßenverkehr: Selbstfahrende Autos machen Fortschritte, aber immer noch fällt es ihren Algorithmen schwer, Menschen mit körperlichen Behinderungen zu erkennen und ihre Bewegungen korrekt einzuordnen. Jutta Treviranus, eine Spezialistin für inklusive KI, hat simuliert, wie verschiedene Modelle das Bewegungsmuster einer Frau erkennen, die sich mit ihrem Rollstuhl rückwärts schiebt. Jedes Mal haben die selbstfahrenden Autos die Frau überfahren.
Homophobie
Was liefert eine künstliche Intelligenz, wenn man sie bittet, romantische Bilder zu generieren? Rosen, Hochzeiten in Weiß und heterosexuelle Paare, bei denen der Mann größer ist als die Frau. Die Resultate bilden eine Gesellschaft ab, in der monogame Heterosexualität die Norm ist. Auch hier handelt es sich um ein Problem der Trainingsdaten. Die großen Bildermengen, mit denen die künstliche Intelligenz lernt, sind nicht ausgewogen. Da viele Bilder in den Datensätzen Heterosexualität abbilden, macht die bildgenerierende Software Queerness unsichtbar, andere Beziehungsmodelle und Lebensrealitäten verschwinden.
Doch viele Menschen aus der LGBTQ-Community sorgen sich noch aus einem anderen Grund: 2017 haben Forscher:innen in einer – allerdings umstrittenen – Studie eine Software mit Fotos von Menschen aus einer Dating-App gefüttert, damit die sie als homo- oder heterosexuell klassifiziert. Angeblich war die Trefferquote der KI deutlich höher als die menschlicher Proband:innen. Eine solche Entwicklung wäre in Ländern, in denen Homosexualität verfolgt wird, für viele Menschen gefährlich. Expert:innen und die LGBTQ-Community kritisieren die Entwicklung solcher Software daher massiv.
Und jetzt? Drei Lösungsansätze gegen Diskriminierung durch KI
1 Damit schon in die Programmierung der Algorithmen unterschiedliche Perspektiven einfließen, müssten Softwareunternehmen (mehr) darauf achten, diverse Entwicklerteams zu beschäftigen.
2 Datensätze für das Training von KI können kuratiert werden. Dabei können Filter pornografische, gewaltvolle oder rassistische Inhalte aussortieren. Eine so gewissenhafte Filterung ist aber aufwendig – und dementsprechend teuer. Viele Firmen halten die konkreten Datensätze, mit denen sie arbeiten, geheim. Ein Ansatz wäre hier, sie zu Transparenz zu verpflichten.
3 Viele fordern, dass der Einsatz von KI in sensiblen Bereichen wie der Gesundheitsversorgung stärker reguliert wird. Die EU hat kürzlich einen ersten Gesetzentwurf (EU AI Act) vorgelegt, der Leitlinien für den Einsatz von KI formuliert. KI-basierte Systeme mit hohem Risiko sollen Auflagen unterliegen, während solche mit inakzeptabel hohem Risiko verboten werden sollen. So soll Social Scoring nicht erlaubt sein, also die Bewertung des sozialen Verhaltens einer Person, um es vorauszusagen oder zu steuern. Auch der Einsatz von Gesichtserkennung durch Strafverfolgungsbehörden an öffentlichen Orten soll eingeschränkt werden.
Dieser Text wurde am 22.11.2023 auf fluter.de unter der Lizenz CC-BY-NC-ND-4.0-DE veröffentlicht. Diese Lizenz ermöglicht den Nutzer*innen eine nicht-kommerzielle Weiterverwendung unter Namensnennung des*der Urheber*in sowie ohne Bearbeitung.
Titelbild: Possessed Photography auf Unsplash (Symbolbild)