21.02.2023 - Wer nach einem Beweis für die allgemeine Überschätzung von Chatbots gesucht hat, der hat ihn von Microsoft geliefert bekommen: Der in die Suchmaschine des Konzerns integrierte Chatbot ist in einem Interview verbal Amok gelaufen.
von Sebastian Halm
In einem zweistündigen Dialog mit einem Reporter, der die KI in der Suchmaschine Bing
austestete, wurde der Bot schließlich zum Stalker und erklärte dem Journalisten die Liebe, außerdem setzte es eine Aufforderung an den Nutzer, sich doch vom Lebenspartner zu trennen. Einem Uni-Professor drohte er laut Tagesschau.de
mit den Worten "Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren." Kommt jedem bekannt vor, der schon mal mehr als eine Stunde im Social Web verbracht hat.
Man könnte glatt meinen, Chatbots seien gar nicht intelligent, sondern kopierten nur Sprachbausteine aus Quellen wie etwa sozialen Medien.
Jedenfalls zog Microsoft
die Reißleine, mit einer bezeichnenden Änderung - der Bot bekommt kein Update, sondern die Nutzung wird drastisch eingeschränkt: Maximal 5 Prompts (also dialogische Eingaben an den Bot) pro Session, maximal 50 insgesamt pro Tag. Die Limitation auf maximale Prompts pro Sitzung und maximale Sitzungen pro Tag hat einen guten Grund: Das Ding taugt einfach noch nichts. Es ist so als ob einem der Makler eine Wohnung nur zehn Minuten am Tag und immer um 12.30 Uhr zeigt, damit man nicht merkt, dass außerhalb dieses Zeitfensters rund um die Uhr Güterzüge unter dem Schlafzimmerfenster verkehren.
Aber der Reihe nach.
Der Konzern begründete den Schritt: Je mehr Fragen man dem ChatBot stelle, desto größer das Risiko, dass er "sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen." Immerhin halb ehrlich. Mit anderen Worten - oder wie wir es bei iBusiness in einer vorangegangenen Analyse erklärt haben
: Der Bot hat keine Ahnung, was er sagt, er baut nur Wörter so zusammen, dass ein Text entsteht, den Menschen als sinnvoll erachten. Je öfter man also eine Frage stellt, desto höher wird die Chance, dass er dekontextualisierten Müll bastelt. Wer glaubt, der Chatbot habe ein Bewusstsein entwickelt, sich in den Nutzer verliebt und sei anschließend ausfallend geworden, der hat entweder keinen Schimmer von datenzentrierten Textgeneratoren oder besitzt Microsoft-Aktien. Denn der Schauer vor einer emotionalen, verliebten Computer-Intelligenz verbirgt gerne, wie wenig der Hype um Chatbots aktuell den Test der Realtität erträgt. Wer ihn dagegen als Zufalls-Wortgenerator begreift, der an seine Grenzen stieß, liegt richtiger.
Vor diesem Hintergrund ergeben sich dringende Empfehlungen an alle Agenturen und Redaktionen, die schon ihre halbe Mannschaft entlassen wollen, weil Open AIs
ChatGPT jetzt deren Jobs macht: Der Textgenerator-KI ist noch nicht reif und bedarf dringend menschlicher Kontrolle. Jedes Geschäftsmodell, das mit Text-Content arbeitet, spielt ein gefährliches Russisches Roulette, wenn es sich auf die vermeintliche KI ihrer Bots verlässt. Vielleicht hinkt Google
nicht hinterher, so wie es uns manch schimmerloser Tech-Journalist weiß machen will. Vielleicht hat Google einfach schon genug KI-Fails erlebt, um den Gang an die Öffentlichkeit bis zur Serienreife zu verzögern. Vielleicht wollen sie sich nicht einfach noch mal blamieren, so wie Microsoft nun.
Mischenrieder Weg 18
82234 Weßling
Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de