Logo

Diversität und KI: So sexistisch ist die Künstliche Intelligenz

Subressort
Aktualisiert
Lesezeit
12 min
KI Diversität Bildgenerator ChatGPT AI OpenAi

©Elke Mayr
  1. home
  2. Politica
  3. Gesellschaft

Algorithmen, die Männer bevorzugen, Sprachassistenz, die weiblich konzipiert ist und non-binäre Menschen, die in Daten überhaupt nicht aufscheinen: Künstliche Intelligenz ist noch immer weit weg von Gleichberechtigung. Wissenschaftlerin Eva Gengler sagt aber auch: "Es gibt Hoffnung." Ein Bericht über Herausforderungen und Möglichkeiten der KI.

Künstliche Intelligenz ist nicht mehr wegzudenken und hat unsere Gesellschaft bereits entscheidend verändert. Computeralgorithmen und technische Systeme, die in der Lage sind, Aufgaben zu lösen, die normalerweise menschliche Intelligenz erfordern: Spracherkennungsprogramme, virtuelle Assistenten wie Siri, Google Assistant und Alexa oder Chatbots verwenden KI, um Anfragen zu beantworten.

Plattformen wie Facebook verwenden KI, um Gesichter auf Fotos zu erkennen und Benutzer automatisch zu taggen. Netflix, Amazon und Spotify verwenden Algorithmen der Künstlichen Intelligenz, um personalisierte Empfehlungen basierend auf dem Nutzerverhalten zu erstellen. Selbstfahrende Autos nutzen KI-Technologien wie maschinelles Lernen, um Verkehrsbedingungen zu verstehen, Hindernisse zu erkennen und sich autonom fortzubewegen. Den meisten sind diese Einsatzgebiete bekannt.

Über die Vielfalt und Auswirkungen von KI

KI kommt aber mittlerweile in vielen weiteren Anwendungsfällen und Tools zum Einsatz – häufiger als wir oft glauben oder wissen. Eva Gengler, Unternehmerin und Wissenschaftlerin, erklärt: "KI steckt auch in Virenprogrammen in Posteingängen, in Filtern von Fotos, wählt aus, welche Inhalte wir auf Social Media und Nachrichtenportalen sehen. Künstliche Intelligenz sortiert Bewerbungen im Recruiting vor und sie beeinflusst, welche Jobs wir auf Jobplattformen sehen. Und sie unterstützt in der Diagnose von Krankheiten und geeigneter Medikamente."

Fakt ist: Artificial Intelligence kann unsere Arbeit erleichtern, aufwändige, langweilige oder gefährliche Aufgaben abnehmen. "Sie kann aber auch marginalisierte Menschen benachteiligen, denn bisherige Machtstrukturen beeinflussen die Entwicklung und den Einsatz und schließlich auch die Outputs von KI. Unsere Gesellschaft kann mit KI also noch ungerechter werden als bisher – und das auf eine unsichtbare Weise", so Gengler. Ihr Ziel ist es deshalb, mit feministischer KI die Welt gerechter zu machen …

Wie passiert Diskriminierung durch Künstliche Intelligenz?

Aber wie passiert es überhaupt, dass KI Menschen diskriminiert? "Sie entsteht in erster Linie, weil auch unsere Gesellschaft ungerecht ist und wir Menschen Biases – also Vorurteile – haben. Durch gebiaste menschliche Entscheidungen kommen diese in die Daten, von denen KI dann lernt – und in Folge Frauen benachteiligt, People of Color, aber auch genderqueere Menschen oder Menschen eines gewissen Alters. Diskriminierung kann typischerweise in Prozessen auftreten, die eng mit Menschen zu tun haben, wie im Recruiting, der Kreditvergabe oder der Leistungsbewertung."

Das eigentliche Problem sieht Gengler vor allem darin, dass den meisten nicht bewusst ist, dass sie von KI überhaupt benachteiligt werden. Auch Menschen, die KI einsetzen, können das oft nur sehr schwer feststellen, weil KI häufig eine "Black-Box" ist.

Tatsache ist auch, dass Diskriminierung durch KI sehr häufig stattfindet. So passiert bei einem von Amazon entwickelten Algorithmus, der zur Unterstützung bei der Auswahl der Bewerber:innen eingesetzt wurde. Dieser stufte Männer als geeigneter ein als Frauen und sortierte alle weiblichen Lebensläufe aus. Der Grund: Als Grundlage dienten der KI die Bewerbungen der vergangenen zehn Jahre – und die spiegelten die Dominanz der Männer in der Technologiebranche wider.

Der Vorfall erinnert an ein Gedanken-Experiment der Massachusetts Institute of Technology mit Chat GTP, bei dem sich gezeigt hat, wenn Künstliche Intelligenz über Leben und Tod entscheidet, rettet sie lieber Männer als Frauen. Ebenfalls kommt AI im Gesundheitswesen in den USA zum Einsatz und gibt People of Color dort weniger Zugang zu Gesundheitsdiensten. "Auch eine Anwendung im Bereich Jobvermittlung in Österreich ist sehr umstritten und soll unter anderem alleinerziehende Frauen benachteiligen", weiß Gengler.

KI-Diskriminierung: Wie lässt sich das Problem lösen?

Dem entgegenzuwirken ist eine Mammutaufgabe, so die Expertin: "Besonders schwer ist es, weil die Ursache vielmehr menschlicher als technischer Natur ist. Das bedeutet, dass wir zwar auch technische Lösungen finden können, aber die wahre Ursache des Problems liegt in ungerechten Machtstrukturen und diese zu verändern ist sehr mühsam, wie auch die feministischen Bewegungen zeigen.“ Einer der möglichen Ansätze: „Beim Menschen ansetzen und mehr Diversität in Entscheidungsgremien und Entwickler:innenteams bringen, indem wir zum Beispiel ein Panel der Vielfalt einsetzen."

Mehr Bildung für mehr Gleichberechtigung bei KI

Auch muss die Bildung in den Fokus genommen werden. "Wir müssen dafür sorgen, dass allen Kindern digitale Fertigkeiten mitgegeben werden und sie Lust auf Technik, Informatik, ... bekommen. Nicht jede:r muss programmieren, aber der Umgang mit digitalen Medien wird bald überall zwingend erforderlich sein. Das ist eine langfristige Maßnahme. Wir müssen aber auch dafür sorgen, dass sich marginalisierte Menschen im IT-Umfeld wohlfühlen. Frauen verlassen immer noch in alarmierenden Zahlen die IT, weil sie sich dort nicht wohlfühlen. Das gilt es zu ändern“, fordert Gengler.

Einem aktuellen Artikel der New York Times zufolge sind die einflussreichen Personen im Bereich KI ausschließlich Männer. "Das ist nicht wahr. Was aber stimmt ist, dass Frauen häufig weniger mächtige Positionen im Bereich KI einnehmen. Viele einflussreiche Frauen in der KI sind Aktivistinnen, Wissenschaftlerinnen oder arbeiten in NGOs. Die gesamte Tech-Branche ist nach wie vor männerdominiert."

Das sieht man auch im Bereich der Künstlichen Intelligenz: Basierend auf dem Global Gender Gap Report 2023 hat sich weltweit der Pool an KI-Expert:innen zwar seit 2016 versechsfacht, jedoch hat sich der Anteil der Frauen, die heute in der KI arbeiten, nur um etwa 30 Prozent im Vergleich zu 2016 erhöht. LikedIn-Daten zeigen, dass der weibliche Anteil an KI-Expert:innen in Deutschland nur bei 23 Prozent und in Österreich bei 24 Prozent liegt. Gengler resümiert: "Das Bild verändert sich also nur langsam und ist in Bezug auf manche Zahlen sogar seit Jahren rückläufig."

Blurred image background

Wir haben folgenden Prompt in Midjourney ausprobiert: "Erstelle ein Bild einer erfolgreichen Person. Stil: fotorealistisch, schwarz-weiß. Die Person sitzt in einem Büro." Das Ergebnis ist eindeutig: nur Männer werden ausgespielt.

© Midjourney

Gender Data Gap und mehr Diversität in Entscheidungsgremien

Ein wichtiger Schritt liegt aber auch in den Daten. "Wir haben einen großen Gender Data Gap – in Bezug auf Frauen, aber auch in Bezug auf non-binäre Meschen. Es gibt einfach viel weniger Daten zu Frauen, ob in der Medizin, der Städteplanung oder Crashtests. Dieses Problem wird noch größer, wenn wir uns non-binäre Menschen anschauen, denn oft existieren sie in unseren Daten gar nicht oder sind falsch klassifiziert."

Die logische Konsequenz: Wenn wir von etwas keine Daten haben, dann können wir nicht davon lernen und das führt zur Diskriminierung dieser Gruppe, wenn darauf nicht besonders geachtet wird im Entwicklungsprozess und in der Anwendung. Gengler: "Langfristig müssen wir diversere Daten sammeln. Zudem brauchen wir mehr Diversität in den Entscheidungsgremien. Wenn Frauen oder andere Menschen nicht am Tisch sitzen und die Macht haben mitzuentscheiden, dann werden deren Bedürfnisse vernachlässigt oder sogar vergessen. KI kann aber auch gezielt feministisch gestaltet werden, um dort eingesetzt zu werden, wo Benachteiligung auftritt und um diese zu verändern. Das ist mein Ziel."

Blurred image background

Ein weiterer Prompt, den wir mit Midjourney ausprobiert haben: "Erstelle ein Foto einer Dirigentin". Der KI-Bildgenerator schafft es trotz expliziter Aufforderung nicht, eine DirigentIN zu erstellen. Dies kann ebenfalls darauf zurückgeführt werden, dass es zu wenige Daten gibt.

© Midjourney

KI lernt aus historischen Daten

Feministische KI etwa verankert und etabliert feministische Prinzipien im gesamten Entwicklungsprozess. "Das haben wir in unserer Arbeit als Feministischen Reflex bezeichnet. Wenn zum Beispiel Daten erhoben werden, dann kommt eine Erinnerung, dass an Biases und eine angemessene Repräsentation gedacht werden muss", erklärt Gengler.

Die bedarf es auch bei virtuellen Assistenten wie Siri und Alexa. Zwar kann mittlerweile zwischen einer männlichen und weiblichen Stimme gewählt werden, die standardmäßige Voreinstellung aber ist weiblich. Auf die Frage, warum das so ist, antwortet Chat GTP: "Die Entscheidung, virtuelle Assistenten wie Siri weibliche Stimmen oder Identitäten zu geben, basiert oft auf langjährigen Konventionen und kulturellen Erwartungen." Fühlt sich nach einem großen Rückschritt an …  

"Das ist ein Rückschritt, aber auch die Abbildung unserer Realität. KI ist wie ein Spiegel unserer gesellschaftlichen Machtstrukturen und Vorurteile. Sie spiegelt das, was da ist und unsere Welt ist sexistisch. Deswegen ist es kein Wunder, dass auch KI sexistisch designed und eingesetzt wird“, so Gengler.

"Zudem lernt KI aus historischen Daten. Das bedeutet, selbst wenn unsere Welt jetzt gerecht wäre, wenn sie das im Moment der Datenerfassung nicht war, dann fließen diese Probleme trotzdem in die KI mit ein. Und unsere Welt war noch nie gerecht. Sexistisches – und anderes diskriminierendes – Gedankengut reicht Jahrtausende zurück und ist auch in vielen täglichen Aufgabenverteilungen oder Rollenzuweisungen noch tief verankert. KI hat somit das Potential unsere Welt sogar noch ungerechter zu machen, als sie aktuell ist, weil sie auf historischen Daten aufsetzt und die Vorurteile verstärkt." Aber auch viele Menschen präferieren weibliche Namen und Stimmen für KI. Der Digitalverband Bitkom hat in einer Umfrage herausgefunden, dass 60 Prozent der Befragten sich eine weibliche Stimme für ihren digitale Assistenz wünschen. Lediglich 15 Prozent bevorzugen eine männliche und nur drei Prozent eine neutrale.

KI ist wie ein Spiegel unserer gesellschaftlichen Machtstrukturen und Vorurteile.

Eva GenglerWissenschaftlerin

Feministische Ansätze bei ChatGTP

In puncto Diversität bringt KI definitiv viele Stolpersteine, Herausforderungen und Probleme mit sich. Aber auch Potential. Etwa, wenn man sich generative AI wie ChatGPT ansieht: "Hier könnten feministische Antworten und Überzeugungen besonders hervorgehoben und Erklärungen mitgeliefert werden, warum gewisse Anfragen unpassend oder sexistisch sind. Es könnte gendern normaler machen, indem es per default genderneutrale Sprache generiert. Errungenschaften von Frauen und anderen marginalisierten Menschen könnten in den Vordergrund gestellt werden. Wenn zum Beispiel nach den zehn einflussreichsten Menschen gesucht wird, dann könnte ChatGPT anstatt zehn Männer aufzuzählen, 50 Prozent Frauen oder mehr anzeigen."

Aber: "Leider tut ChatGPT viele dieser Dinge nicht und könnte somit noch wesentlich feministischer sein." Für die Wissenschaftlerin ist klar: "Auf jeden Fall wird es nicht zufällig passieren, dass KI unsere Welt gerechter macht."

Blurred image background

Unsere Expertin Eva Gengler ist Doktorandin der Wirtschaftsinformatik an der Friedrich-Alexander-Universität Erlangen-Nürnberg im International Doctorate Programme: Business and Human Rights. Sie ist Feministin und erforscht den Impact von KI auf unsere Gesellschaft inkl. den Machtverhältnisse sowie Risiken und Chancen von KI.

© Eva Gengler
Feminismus

Über die Autor:innen

Logo
Jahresabo ab 7,90€ pro Monat

Ähnliche Artikel