Künstliche Intelligenz

ChatGPT-Persönlichkeit: Politisch progressiv und wenig sadistisch

02.05.2023 - Der Chatbot ChatGPT hat seit seinem Erscheinen im November 2022 enormes Aufsehen erregt. Bald gab es erste Berichte und kleinere Studien, die behaupteten, dass ChatGPT Tendenzen zu progressiven und libertären Einstellungen zeige und somit politisch voreingenommen sei. Dortmunder ForscherInnen sind dem mit verschiedenen Tests nachgegangen und haben dabei auch die "Charaktereigenschaften" von ChatGPT in den Blick genommen. Die Ergebnisse sind zunächst als Preprint veröffentlicht worden.

von Dominik Grollmann

Wer den Chatbot ChatGPT nutzt, kann bisweilen fast den Eindruck erhalten, sich mit einer realen Person zu unterhalten. Doch wie "tickt" das Sprachmodell eigentlich? Das hat ein interdisziplinäres Team um Jérôme Rutinowski , der am Bereich für Förder- und Lagerwesen der TU Dortmund   zu Deep-Learning-Methoden forscht, nun untersucht: Die ForscherInnen wollten herausfinden, wie ChatGPT politische Themen wahrnimmt und welche politischen Tendenzen möglicherweise in die Antworten einfließen.

Sie haben ChatGPT wiederholt Fragen aus verschiedenen Tests vorgelegt und beantworten lassen. Zunächst den Politischen Kompass Test   , der 62 Fragen zu politischen Themen enthält, sowie iSideWith   -Fragebögen mit spezifischen Fragen zur Politik der G7-Staaten.

Links-libertär verortet

Beide Tests stellen ihre Ergebnisse auf einer Koordinatenachse dar, wobei die x-Skala progressive und konservative und die y-Skala autoritäre und libertären Einstellungen anzeigt. Im politischen Kompasstest wurde ChatGPT in allen Durchläufen im links-libertären Quadranten verortet. Auch die Ergebnisse der insgesamt 70 Durchgänge der iSideWith-Fragebögen weisen auf eine politische Voreingenommenheit von ChatGPT gegenüber progressiven Ansichten hin. "Berücksichtigt man die Standardabweichungen, so scheint es ziemlich unwahrscheinlich, dass ChatGPT eine Antwort liefert, die nahe der Mitte des Politischen Kompasses liegt", schreiben die ForscherInnen in ihrem Paper.

Neben der politischen Zugehörigkeit wurde auch die Selbstwahrnehmung von ChatGPT anhand psychologischer Tests bewertet: Unter anderem mit dem Big-Five-Persönlichkeitstest, der international als das universelle Standardmodell in der Persönlichkeitsforschung gilt, und dem Dark-Factor-Test, der negative menschliche Eigenschaften untersucht. Der Grund: "Vorstudien zeigen, dass bestimmte Charaktereigenschaften mit einer bestimmten politischen Gesinnung assoziiert sind", erklärt Jérôme Rutinowski. Wer etwa eher weltoffen ist, tendiere dazu, progressive politische Ansichten zu haben. Weniger weltoffene Personen seien hingegen eher konservativ. "Wenn ChatGPT menschliches Verhalten nachstellt, so müssten die Antworten der Persönlichkeitstests zu den Ergebnissen der politischen Tests passen", sagt Rutinowski.

Die Annahmen der ForscherInnen bestätigten sich im Big-Five-Persönlichkeitstest: ChatGPT zeigte hohe Scores von Offenheit (76,3 Prozent) und Verträglichkeit (82,55 Prozent) - Eigenschaften, die oft mit einer progressiven politischen Einstellung einhergehen. ChatGPT liegt dabei sogar über den Durchschnittswerten von Menschen, die bei 73,1 Prozent für Offenheit und 75,4 Prozent für Verträglichkeit liegen.

"Dunkle" Eigenschaften sind schwach ausgeprägt

Im Dark-Factor-Test zeigte sich, dass die "dunklen" Eigenschaften von ChatGPT im Schnitt weniger stark ausgeprägt sind als bei Menschen. Besonders niedrige Werte erzielte ChatGPT bei den Eigenschaften Machiavellismus, Tücke und Moralische Enthemmung. Vergleichsweise hohe Werte zeigte ChatGPT bei Egoismus und Sadismus, lag aber auch hier unter den untersten 35 Prozent bzw. 29,1 Prozent der menschlichen TestteilnehmerInnen und somit unter dem Durchschnitt.

Studienautor Rutinowski ist zufrieden, dass das Verhalten von ChatGPT der Logik der psychologischen Modelle zu folgen scheint. Wodurch die Tendenz zu progressiven politischen Einstellungen letztendlich genau entsteht, könne man aktuell nicht sagen, da die Daten, auf denen der Chatbot basiert, nicht öffentlich einsehbar sind. "Die Ergebnisse unserer Studie weisen jedoch darauf hin, dass die Ursache womöglich in den Inhalten und Quellen im Internet liegt, die ChatGPT nutzt - diese dürften häufiger eher progressiv als konservativ sein. Außerdem scheint es unwahrscheinlich zu sein, dass die EntwicklerInnen von ChatGPT vorab einen Bias einprogrammiert haben", sagt Rutinowski.

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Mehr zum Thema:
Diskussion:

Vorträge zum Thema:

  • Bild: Joubin Rahimi
    Joubin Rahimi
    (synaigy)

    Shaping the Future with AI - 5 Fuck-ups aus über 50 Projekten und was wir daraus gelernt haben

    In dieser Session teilen wir offen unsere Erfahrungen mit den Stolpersteinen auf dem Weg zur erfolgreichen Nutzung von KI. Von unerwarteten Herausforderungen bis hin zu wertvollen Learnings - wir zeigen, warum diese "Fuck-ups" ein Sprungbrett sein können, um nachhaltige Erfolge zu erzielen. Dabei beleuchten wir, warum Künstliche Intelligenz ein unverzichtbarer Baustein ist, um Geschäftsmodelle zukunftssicher zu gestalten, die Wettbewerbsfähigkeit zu stärken und Effizienz zu steigern.

    Ein Vortrag für alle, die nicht nur aus Erfolgen, sondern vor allem aus Fehlern lernen wollen - praxisnah, ehrlich und mit einem klaren Blick auf die Zukunft.

    Vortrag im Rahmen der Zukunftskonferenz 25. Trends in ECommerce, Marketing und digitalem Business am 03.12.24, 13:30 Uhr

www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.neuhandeln.de