„Da waren wir doch schon einmal!“ - Diskriminierende KI im Kontext feministischer Arbeit

Eine Auseinandersetzung mit diskriminierenden Strukturen in der Künstlichen Intelligenz. Katharina Klappheck räumt mit Tropes zur IT-Branche auf und setzt sie in Bezug zur Gegenwart. 

lilanes Gehirn auf einem Hintegrund, der verschiedene helle Formen abbildet

„KI ist diskriminierend.“ „KI spiegelt und verstärkt als teil digitalisierter Gesellschaften bestehende Machtverhältnisse und verstärkt diese auf spezifische Weise.“ – Dies ist mittlerweile die vorherrschende Meinung in Wissenschaftsfeldern wie den Geistes- und Sozialwissenschaften, aber auch in der Informatik. Aber wie genau und was ist an KI diskriminierend bzw. was können und sollen politische Entscheidungsträger*innen, Wissenschaftler*innen, Zivilgesellschaft und Wirtschaft dem entgegenhalten?
Ich möchte in diesem Artikel zwei tropen, im Sinne sich wiederholender Erzählmuster, über diskriminierende KI vorstellen und Lösungsansätze beleuchten. Sie dienen als kleine erste Orientierungshilfe, die hoffentlich am Ende zu gerechteren digitalen Anwendungen führen kann.


Die „das-neue-Problem“-Trope
KI als „Diskriminierungsmotor“ wird oftmals im medialen Kontext und auch im wissenschaftlichen Umfeld als relativ neues Problem geframt, da die Technik selbst so neu erscheint. Durch ihre neuerliche Hochphase, markiert durch ChatGPt und die Möglichkeit, Texte zu generieren, wirkt es, als stünde die heutige Gesellschaft vor nie gekannten Problemen. In der Tat ist KI schon seit den 1960ern ein fester Begriff für selbstlernende Systeme. Natürlich schwanken die Definitionen. Es gab verschiedene Ansätze genauso wie es verschiedene Expert*innen gab, es gab Systeme, in denen das Wissen von Anfang an fest eingeschrieben wurde, oder wie jetzt lernende Ansätze,
die auf Mustererkennung setzen.
Dass diese technologie gefährliche Stereotype reproduziert, haben Feminist*innen schon in den 1970ern erkannt. Frigga Haug, eine deutsche Soziologin, Philosophin und marxistische Feministin, beschäftigte sich in den 1970ern mit den Folgen der Automatisierung in Fabriken. Sie stellte fest, dass die Idee der Beherrschung der Maschine sexistische Ideen von technisch versierter männlicher Herrschaft über vermeintlich nutz- oder minderwertige Tätigkeiten wie die (weibliche) Büroorganisation verfestigte und diese entwertete, was zu konkreten Folgen wie schlechter Bezahlung, Arbeitslosigkeit und Zurückdrängung von Frauen aus dem Arbeitsleben in (West-)Deutschland
führte. Von dieser Perspektive ausgehend, prangerte Haugg auch an, dass technisches Wissen, also die Fähigkeit, Maschinen zu bauen und zu bedienen, nicht per se sinnvoller oder anspruchsvoller sei, sondern unter eine patriarchale Idee von Arbeit falle.

Die U.S.-amerikanische Anthropologin Diana E. Forsythe benannte dies in einer der ersten Feldforschungen zu KI und Arbeit in den 1990ern konkret und wies auf die aktive Unsichtbarmachung von weiblicher Arbeit im Kontext von KI hin. Sie untersuchte dabei die Arbeitsteilung in einem KI-Labor in den Vereinigten Staaten. Das gesamte Team, bestehend aus männlichen Wissenschaftlern (!) und
weiblichen Verwaltungsfachkräften (!), verstand die Arbeit an KI nur dann als „Arbeit“, wenn diese „Arbeit“ mit dem Programmieren, dem Bauen (es handelte sich hier um einen Roboter, der mit KI ausgestattet war) zu tun hatte. Dabei war die Arbeit an KI, die von den weiblichen Verwaltungsfachkräften ausgeführt wurde, d. h. ihre Arbeit, um das Programmieren und das Herstellen dieses Roboters zu ermöglichen, zwingende Voraussetzung für eben jene.
Die Frage ist natürlich, warum sollten diese teils 50 Jahre alten Befunde relevant für das heutige Verständnis von KI, und vor allem für die Problematik, die mit KI einhergeht, wichtig sein? Ein wesentlicher Punkt ist sicherlich die Unterrepräsentanz von Frauen im IT-Bereich.

Die „Das-Frauenproblem-im-IT-Bereich“-Trope

Es ist bekannt, dass mit KI auch deshalb so viel Diskriminierung verbunden ist, weil sie scheinbar von einer sehr homogenen Gruppe von Menschen entworfen wird, nämlich weißen cis Männern. Als Lösungsansatz hierfür wird oftmals die „veraltete“ und nicht aktualisierte Idee gehandelt, mehr Mädchen und Frauen in MINT-Fächer zu bekommen. Diesen Ansatz, der schon in den 1990ern verfolgt wurde, um der
festgestellten Aufteilung von Frauen und Männern zu begegnen, nannte die Soziologin Wendy Faulkner „Women in Tech“.
 

Hinter diesen Ansätzen stand und steht allerdings die Haltung, dass das „Problem“ bei den Frauen liege (z. B. fehle es ihnen an Interesse, an Wissen etc.). Folglich gelte es, Frauen davon zu überzeugen, in diese Berufe einzusteigen, d. h. sie durch Schulbildung dazu zu bringen, diese Fächer zu studieren und dann die Berufe zu ergreifen. Bis heute zeigen diese Ansätze wenig bis keine Wirkung. So verbesserte sich beispielsweise in Deutschland die Quote der Informatikstudentinnen nur marginal im einstelligen Prozentbereich über das letzte
Jahrzehnt hinweg. Deutschland belegt den 20. Platz im internationalen Vergleich bezüglich erwerbstätiger Frauen im IT-Bereich und belegt Platz 21 beim Gender Pay Gap in der IT-Branche.

Wie weiter?
Wie Frigga Haug bereits in den 1970ern schrieb, sind „Frauen in der Technik“ nicht mit der Arbeit an und mit Technik befasst. Sie werden schlicht nicht wahrgenommen, und das ist eine Frage von Macht. Diana E. Forsythe machte deutlich, dass geleistete Arbeit in jenem Bereich systematisch unsichtbar gemacht wird. Es bräuchte also erstens eine ehrliche Debatte um faire Vergütung in diesem Bereich. Wenn KI eine Schlüsseltechnologie ist, sollten jene Menschen (!), die die Infrastruktur für die Produktion bereitstellen (in Form von terminerstellungen, dem Planen, Anleiten, Vor- und Nachbereiten der Meetings) genauso ernst genommen werden, gerade vor dem Hintergrund der
systematischen Entwertung weiblicher Arbeit. 

Zweitens muss anerkannt werden, dass diese Prozesse gewaltvoll vollzogen werden. Marginalisierte Gruppen in Bezug auf Geschlecht, scheiden durchschnittlich nach zehn Jahren aus diesen Berufen aus, und zwar aufgrund von Diskriminierung bis hin zu Gewalt- und Mobbingerfahrung. Hier braucht es vor allem starke Antidiskriminierungsgesetze, die vor Benachteiligung schützen, um die Fachkräfte zu hal-
ten (European Commission 2013; Blumberg/Mäkelä/Soller 2023).


Drittens sind Frauen und gerade mehrfach marginalisierte Frauen und auch marginalisierte Geschlechter wie nichtbinäre Personen oftmals
Expert*innen in Softwareentwicklung und partizipativen Design-Ideen, die zu inklusiveren Technologien führen. So entwickelte etwa die
lesbische Community einen der ersten E-Mail-Verteiler 1977 (McKinney 2020, S. 33-35). Schwarze Programmiererinnen wie Mary Winston Jackson ermöglichten die erste Mondlandung und queere Menschen entwickelten das Fendiverse (ein Netzwerk, das aus vielen unabhängigen Social Media-Plattformen wie etwa Bluesky oder Mastodon besteht) (Hart 2017). Dies gerät oftmals jedoch in Vergessenheit, da sich diese Narrative nicht mit der Idee einer heteronormativen Weiblichkeit decken.

Durch den Blick zurück einen Blick nach vorne gewinnen…
Bislang fehlen ein systemischer Blick und eine historisch eingebettete Evaluierung von Exklusionsmechanismen bezüglich marginalisierter gegenderter Gruppen im Arbeitsfeld der KI. Die Auseinandersetzung mit der Historie von KI-Produktion und der Exklusion von marginalisierten Personen kann also zu Neuentdeckungen führen, zu unverhofften Glücksfällen und harten Perspektiven. Dies kann eine Möglichkeit sein, KI zumindest für die nächsten 50 Jahre nicht wieder nur durch eine Sichtweise prägen zu lassen. Oftmals wird dabei aber übersehen, dass wir es mit einer langen globalen Historie von feministischen Bemühungen zu tun haben (vor allem wissenschaftlich).

 

Literatur

Adam, Alison (1998): Artifical Knowing: Gender and the thinking Machine. London: Routledge.


Blumberg, Sven/Krawina, Melanie/ Mäkelä, Elina/Soller, Henning (2023): Women in tech: the best bet to solve Europe‘s talent
shortage. McKinsey & Company. Online: https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/wom…-
in-tech-the-best-bet-to-solve-europes-talent-shortage [2025-01-21]


Browne, Jude/Cave, Stephan/Drage, Eleanor/McInerney, Kerry (Hg.) (2024): Feminist AI: Critical Perspectives on Data, Al-
gorithms and Intelligent Machines. Oxford: Oxford University Press. Online: https://www.researchgate.net/publica-
tion/375860000_Feminist_AI_Critical_Perspectives_on_Algorithms_Data_and_Intelligent_Machines [2025-01-21]


European Commission: Directorate-General for the Information Society and Media (2013): Women active in the ICt sector
– Final report. Publications Office. Online: https://data.europa.eu/doi/10.2759/27822


Faulkner, Wendy (2001): the technology question in feminism: A view from feminist technology studies. In: Women‘s Studies
International Forum 24, S. 79-95.


Forsythe, Diana E. (2001): Studying those who Study us: an Anthropologist in the World of Artificial Intelligence. Stanford:
Stanford Univ. Press.


Hart, Allie (2017): Mourning Mastodon. Realizing the death which preceded the Universe. Online:https://medium.com/@
alliethehart/gameingers-are-dead-and-so-is-mastodon-705b535ed616 [2024-12-23]


Haug, Frigga (Hg.) (1987): Widersprüche der Automationsarbeit: Ein Handbuch. Berlin: Argument Verlag.
McKinney, Cait (2020): Information Activism: A Queer History of Lesbian Media technologies. Durham, NC: Duke University
Press.

Statistisches Bundesamt (Destatis) (2024): Zahl der Woche: Frauenanteil in der technischen Forschung und Entwicklung
binnen zehn Jahren von 11 % auf 18 % gestiegen. Online: https://www.destatis.de/DE/Presse/Pressemitteilungen/Zahl-
der-Woche/2024/PD24_17_p002.html [2024-12-23]


Suchman, Lucy (2009): Human-Machine Reconfigurations: Plans and Situated Actions. 2. Aufl. Cambridge: Cambridge Uni-
versity Press.


West, Sarah Meyers (2020): Redistribution and rekognition. A feminist critique of algorithm fairness. In: Catalyst: Feminism,
theory, technoscience 6 (2), S. 1-24. Online: https://catalystjournal.org/index.php/catalyst/article/view/33043/26845 [2025-01-21]