Künstliche Intelligenz

So verhindern Unternehmen Diskriminierung in KI-Anwendungen

19.10.2020 - Viele Menschen stehen Künstlicher Intelligenz skeptisch gegenüber, weil sie Algorithmen für ungerecht oder voreingenommen halten. Was Unternehmen tun können, damit die KI gerechte Entscheidungen fällt:

von Frauke Schobelt

Ende Oktober will die Enquete-Kommission des Bundestages   nach zwei Jahren Diskussionen einen Gesamtbericht über Künstliche Intelligenz (KI) vorlegen. Darin wird sie auch auf die Bedeutung von diskriminierungsfreier KI hinweisen, denn obwohl in KI-Anwendungen scheinbar objektive Algorithmen zum Einsatz kommen, treffen sie nicht immer neutrale und gerechte Entscheidungen.

Der Einsatz von Künstlicher Intelligenz ruft daher bei vielen Menschen Unbehagen hervor. Die Skeptiker fürchten diskriminierende Entscheidungen der Technologie, weil sie Algorithmen für ungerecht oder voreingenommen halten. Bei wichtigen Entscheidungen vertrauen sie daher eher Menschen als einer KI. Den Nährboden für solche Vorbehalte liefern Beispiele für KI-Anwendungen, die Menschen aufgrund bestimmter Eigenschaften in den vergangenen Jahren tatsächlich diskriminierten. Etwa Gesichtserkennungsalgorithmen, die Probleme haben, Frauen und dunkelhäutige Menschen zu erkennen. Auch gezielte Manipulationen gab es, beispielsweise als der Chatbot eines großen Software-Konzerns aus echten Konversationen in sozialen Netzwerken lernen sollte und Anwender ihn mit rassistischen Äußerungen binnen wenigen Stunden zum Rassisten machten.

Software-Hersteller Pegasystems   sieht dafür verschiedene Ursachen: Entweder ist die Datenbasis das Problem, die nicht ausgeglichen gewählt wurde oder bereits gesellschaftliche Ungleichheiten abbildet. Manchmal steckt der Fehler in den Algorithmen selbst, die bestimmte Merkmale zu stark gewichten oder aus Korrelationen eine Kausalität ableiten, die nicht existiert. Pegasystems erklärt, wie Unternehmen Vorurteile und Diskriminierung in ihren KI-Anwendungen verhindern können:

Kontinuierlich und genaue kontrollieren

Setzen Unternehmen KI-basierte Anwendungen ein, etwa bei der Auswahl von Bewerbern, der Vergabe von Krediten oder bei der Bearbeitung von Versicherungsfällen, müssen sie die Lösungen und Ergebnisse während der Entwicklung, der Trainingsphase und im laufenden Betrieb genau kontrollieren, um unfaire und diskriminierende Entscheidungen zu erkennen. Die beiden wichtigsten Bausteine dafür sind transparente Algorithmen und Simulationen.

Entscheidungen verstehen mit transparenten Algorithmen

Transparente Algorithmen sind notwendig, damit Entwickler und Nutzer der KI-Anwendungen verstehen, wie Entscheidungen gefällt werden und wie sich bestimmte Eigenschaften auf die Entscheidungen auswirken. Sehr komplexe Algorithmen, die eine Art 'Black Box' sind, liefern möglicherweise bessere Ergebnisse, sind aber intransparent und bergen laut Pegasystems ein Risiko, weil umstrittene Entscheidungen nur unzureichend erklärt werden können.

Unternehmen sollten daher abwägen, wie viel Transparenz und damit Erklärbarkeit für das konkrete Einsatzgebiet notwendig ist, so der Software-Dienstleister. Bei transparenten Algorithmen können sie bereits im Vorfeld mit Simulationen, die spezielle Testdaten oder echte Daten verwenden, schnell erkennen, welche als diskriminierend eingestuften Eigenschaften - etwa Alter, Geschlecht oder Herkunft - zu verzerrten Entscheidungen führen. Sei es, dass ältere Menschen eher einen Kredit gewährt bekommen als jüngere, dass Männer eher zu Vorstellungsgesprächen eingeladen werden als Frauen oder dass bei der Regulierung von Unfallschäden häufiger ein Gutachter zu Versicherten mit ausländischem Namen geschickt wird als zu Versicherten mit deutschem Namen.

Fehler finden und beseitigen mit Simulationen

Allerdings sind nicht alle Diskriminierungen so offensichtlich - die Stärke von KI-Anwendungen ist es schließlich, Zusammenhänge besser und schneller zu erkennen als Menschen. Zum Beispiel könnte eine KI auch vom Vornamen auf das Alter schließen oder von der Buchstabenhäufigkeit im Nachnamen auf die Herkunft. Darum müssen alle Eigenschaften, die in die Entscheidungsfindung einfließen, mit Simulationen auf eine mögliche Diskriminierung abgeklopft werden. Gute KI-Systeme erkennen die zu starke Gewichtung bestimmter Eigenschaften nicht nur in Simulationen, sondern auch im Live-Betrieb, sodass kontinuierlich nachjustiert werden kann.

Nachjustieren im Live-Betrieb

"Eine Bevorzugung oder Benachteiligung bestimmter Personengruppen sieht man einem KI-Algorithmus nicht an - man erkennt sie erst in der Simulation oder im Live-Betrieb, wenn einzelne Eigenschaften die Entscheidungen in die eine oder andere Richtung beeinflussen", erklärt Kay Knoche , Principal Solution Consultant bei Pegasystems. "Die Abwägung, welche Eigenschaften bei der Entscheidungsfindung nicht berücksichtigt werden sollen und wie viel Transparenz ein Algorithmus bieten soll, muss für jeden Anwendungsfall die Fachabteilung vornehmen. Die Entwickler der KI können nicht darüber entscheiden, wann eine hohe Vorhersagequalität und hohe Erfolgsquoten wichtig sind und wann diskriminierungsfreie Ergebnisse und Auditierbarkeit."

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Mehr zum Thema:
Diskussion:

Vorträge zum Thema:

  • Bild: Philipp Göller
    Philipp Göller
    (Paraboost GmbH)

    Chat-GPT und die Kunst Kundenbedürfnisse zu verstehen und den Customer-Lifetime Value zu boosten!

    In diesem Vortrag geht es um die Bedeutung von Kundenbedürfnissen und Customer-Lifetime Value (CLV) im Geschäftserfolg. Dabei wird insbesondere auf die Rolle von Chat-GPT als innovative Technologie zur Analyse von Kundendaten und zur Erhöhung des CLV eingegangen. Es werden praktische Beispiele und Strategien vorgestellt, wie Unternehmen Chat-GPT nutzen können, um die Bedürfnisse ihrer Kunden besser zu verstehen und ihre Erfahrung zu personalisieren. Außerdem wird diskutiert, wie Chat-GPT dazu beitragen kann, die Kundenbindung und Loyalität zu stärken und somit den CLV zu steigern.

    Vortrag im Rahmen der Daten & KI 2023. Virtuelle Kongressmesse über Customer Experience mit datengestütztem Marketing und Vertrieb am 06.06.23, 11:15 Uhr

www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.neuhandeln.de