Genderrechtigkeit

KI-Studie deckt genderbezogene Diskriminierung auf

15.07.2024 - Eine Untersuchung der Hochschule Bielefeld offenbart, dass KI-Anwendungen häufig genderbezogene Diskriminierung verstärken. Dies wurde besonders in Fällen deutlich, bei denen KI-Systeme bei der Auswahl von KandidatInnen oder der Anzeige von Stellenanzeigen Vorurteile zeigten.

von Dominik Grollmann

Erhöht Künstliche Intelligenz (KI) die Chancengleichheit, etwa bei der Besetzung einer neuen Stelle? Beispiele aus der Praxis zeigen, dass das Gegenteil der Fall sein kann. So vertraute ein global agierender Online-Versandhandel im Recruiting-Prozess einem Einstellungsroboter ? und sah sich prompt mit Diskriminierungsvorwürfen konfrontiert: Die KI hatte Lebensläufe von Frauen häufig aussortiert und bevorzugte offenbar männliche Kandidaten. Ein weiteres Beispiel: Der Betreiber eines der größten sozialen Netzwerke weltweit zeigte Männern auf seiner Plattform häufiger Stellenanzeigen von technischen Berufen als Frauen. Offensichtlich hatte die KI das zahlenmäßige Übergewicht von Männern in technischen Berufen zur Annahme verleitet, dass dies auch für die Zukunft so gewünscht sei.

Negative Auswirkung auf Akzeptanz von KI

Die Berichterstattung über die Ausgrenzung von Frauen durch KI macht Schlagzeilen und hat Auswirkungen auf die Akzeptanz und Einsetzbarkeit der Technologie. Vor diesem Hintergrund hat eine Gruppe von Forschenden an der Hochschule Bielefeld (HSBI) die Studie "Fit für KI?" durchgeführt, um festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs- und Gegenmaßnahmen zu eruieren.

Im Ergebnis identifizierten die HSBI-Forschenden dabei fünf Kategorien, die berücksichtigt werden sollten, um KI-Technologien gerechter und gleichberechtigter zu gestalten:

  • Freiheit von Diskriminierung,
  • Wissen und Bildung,
  • Geschlechterunterschiede,
  • Kommunikation und Benutzerfreundlichkeit sowie
  • Transparenz und Regelungen.


Unterrepräsentiertheit von Frauen führt zu mangelnder Leistungsfähigkeit

"In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI-Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden" erklärt Studienleiter Prof. Dr. Sascha Armutat. "Die Unterrepräsentiertheit von Frauen in den Daten, mit denen KI-Systeme lernen, wirkt sich unter anderem auf die Leistungsfähigkeit von Stimm-, Sprach- und Gesichtserkennungssystemen aus, die bei Männern häufig zuverlässiger funktionieren", berichtet der Professor.

Systematische Verzerrungen, die durch unkritisch in KIs einfließende empirische Daten, geschlechtsbezogene Stereotypisierungen und Vorurteile entstehen, bezeichnet die Wissenschaft als "Gender Bias". Darüber und über die aus solchen Erkenntnissen abzuleitenden Vorgaben für den transparenten Einsatz von KI und über Regelungen, die Diskriminierungen unterbinden, wurde in den Fokusgruppen am häufigsten diskutiert. Ihre Forderung lautet: Der Umgang mit KI müsse nachvollziehbarer und demokratischer gestaltet werden. Dazu könnte eine Kennzeichnungspflicht gehören, um anzuzeigen, wann jemand mit einer KI interagierte. Außerdem wurde der Wunsch nach Regelungen geäußert, in denen festgelegt wird, was KI darf und was nicht. Der EU AI Act, der KI-Anwendungen in unterschiedliche Risikoklassen einordnen soll, geht hier in die richtige Richtung.

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Diskussion:

Vorträge zum Thema:

  • Bild: Julia Deptala
    Franz Peter Altemeier (Deutscher Dialogmarketing Verband e.V.)

    Rechtliche Herausforderungen beim KI-Einsatz

    Wer haftet, wenn der KI-Algorithmus einen Fehler macht? Was müssen Verantwortliche für KI-Projekte jetzt wissen? Der Vortrag gibt einen Überblick über die aktuelle Rechtslage und zeigt, wie Compliance-Anforderungen frühzeitig erkannt und Haftungsrisiken sowie Bußgelder vermieden werden können.

    Vortrag im Rahmen der Daten & KI 2023. Virtuelle Kongressmesse über Customer Experience mit datengestütztem Marketing und Vertrieb am 06.06.23, 11:50 Uhr

www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.neuhandeln.de