Im Kundenservice entwickeln sich KI-basierte Chatbots für Unternehmen zu einer wichtigen Ressource. Die Technologie ermöglicht es, Servicezeiten zu verkürzen, die kanalübergreifende Interaktion mit den Kunden zu steuern oder für jede Situation passende Produkte und Dienstleistungen zu ermitteln. Im Idealfall erkennt die KI Kundenwünsche, verknüpft Gespräche, stärkt die Zufriedenheit und steigert die Loyalität.
Allerdings hat Künstliche Intelligenz ein Imageproblem, wird von vielen als "Kühle Intelligenz" wahrgenommen, wie eine Umfrage
von Softwareanbieter Pegasystems
zeigt. Die meisten (67 Prozent) der 1007 befragten Deutschen interagieren demnach lieber mit Menschen als mit KI-gesteuerten Maschinen. Was braucht KI im Kundenservice also, damit sich die Menschen mit ihr wohler fühlen, die Dienste annehmen - und auch mit ihrer Unterstützung kaufen?
Empathie
Der Schwerpunkt der KI wird sich hin zur Empathie verlagern, denn die
"kalte analytische Intelligenz" reicht für eine wirklich verbraucherorientierte KI nicht mehr aus, so die Prognose von Pegasystems. Denn: Kunden wollen als Individuen betrachtet werden und nicht nur als Kundendatensätze. KI-Anbieter sollten die Technologie deshalb stärker mit emotionaler Intelligenz und Empathie ausstatten, sie also "humanisieren".
Laut Pegasystems fühlt sich weniger als jeder Dritte wohl oder zumindest einigermaßen wohl damit, wenn ein Unternehmen KI zur Interaktion mit seinen Kunden einsetzt.
"Offenbar erleben viele Kunden KI als kühl kalkulierenden Technokraten, der sich herzlich wenig um ihre emotionale Situation schert", erklärt Dr. Kay Knoche
, Solution Consultant Next Best Action Marketing bei Pegasystems. 82 Prozent der befragten Deutschen gaben an, noch nie mit einer KI interagiert zu haben, die ihnen empathisch erschien. Entsprechend sei es wenig verwunderlich, dass gerade einmal zehn Prozent von ihnen davon überzeugt sind, dass KI überhaupt das Potenzial hat, den Kundenservice zu verbessern. Damit KI im Kundenmanagement ihre Vorteile ausspielt, muss sie aber von den Kunden auch angenommen werden. KI könne nur massentauglich werden, wenn die Unternehmen Empathie-ähnliches Verhalten in ihre Entscheidungssysteme integrieren, lautet das Fazit von Pegasystems:
"Relevante, personalisierte und kundenorientierte Entscheidungen zu treffen, muss auch heißen, dabei Einfühlungsvermögen zu zeigen."
Und so geht es: Die eingesetzten Machine-Learning-Methoden können zur Vorhersage des Kundenverhaltens mit einem Regelwerk für empathisch wirkende Entscheidungen kombiniert werden. Dieses Regelwerk muss etwa überprüfen, ob die von den Maschinen ermittelten Aktionen Kunden auch langfristig nutzen, ob sie im Einklang mit seinen jüngsten Aktivitäten stehen oder ob sie zur aktuellen Stimmung des Kunden passen. Das Ergebnis dieser Prüfungen könne dann durchaus sein, einem Kunden einfach nur zuzuhören, ihm mitzuteilen, dass er vom Unternehmen geschätzt wird, oder ihn auch einfach für eine gewisse Zeit in Ruhe zu lassen.
"Dieser Ansatz erfordert natürlich ein gewisses Umdenken in den Unternehmen. Er bedeutet nämlich, dass kurzfristige Umsätze nicht mehr auf Teufel komm raus über allem stehen", sagt Knoche.
"Aber langfristig gesehen rechnet sich dieser Ansatz auch wirtschaftlich. Unzufriedene Kunden, die sich unverstanden oder unsensibel behandelt fühlen, werden sich früher oder später abwenden und nach Alternativen umsehen; und die sind meistens nur ein paar Klicks entfernt."
Informationen
"Chatbots brauchen für ein gutes Gespräch mehr als KI", davon ist Tjeerd Brenninkmeijer
, Executive Vice President EMEA bei
BloomReach
überzeugt. Denn die Macht der Chatbots beruhe auf etwas sehr Elementarem: den verfügbaren Informationen. Chatbots interpretieren diese nur.
"Wenn ein Benutzer eine schlechte Erfahrung mit einem Chatbot gemacht hat, sollte man sich näher ansehen, auf welche Informationen dieser zugreift. Chatbots - und die KI darin - sind nichts ohne Informationen", so Brenninkmeijer.
Er vergleicht den Dialog mit einem schlecht gebrieften Chatbot mit einer schleppenden Konversation auf einer Party. Wenn die Gesprächspartner kein gemeinsames Thema finden und sich nichts mehr zu sagen haben, läuft der Small Talk schnell ins Leere und führt zu peinlichem Schweigen.
Um das zu verhindern, sollten Chatbot-Prozesse auf zwei Ebenen aufgebaut werden, so der Rat von Brenninkmeijer:
- Wenn der Chatbot das Gespräch begonnen hat, wird ihm zuerst eine Frage präsentiert. Er versucht daraufhin, in den verfügbaren Daten die richtige Antwort für den Benutzer zu finden, um sie ihm zurückzuschicken.
- Hier kommt die zweite Ebene ins Spiel - sie ist das eigentliche Merkmal eines guten Chatbots: Wenn der Chatbot die Antwort nicht finden kann, sendet er die Anfrage des Nutzers an einen Menschen weiter. Dieser Mitarbeiter findet die Antwort und spielt sie an den Chatbot zurück. Entscheidend ist, dass der Chatbot bei dieser Interaktion lernt und zusätzliches Wissen über seine Welt gewinnt. So werden der Service des Chatbots und die Benutzererfahrung kontinuierlich verbessert.
Gerade der E-Commerce-Sektor setze zunehmend Chatbots ein - erlaubten sie es doch, eine Einkaufsreise im Onlineshop ähnlich personalisiert zu gestalten wie im Ladengeschäft. Der Einsatz von Chatbots als primärem digitalem Handelstool wird explodieren, so die Prognose von Brenninkmeijer.
"Die Gewinner sind dabei die, die es Nutzern leicht machen, die richtigen Informationen zu finden."
Weil Verbraucher heute Personalisierung erwarten, müssen Chatbots Informationen aus der Vergangenheit speichern und daraus lernen können. Zudem sollten die Interaktionen mit der Organisation, dem Händler oder der Marke immer gleich sein, unabhängig davon, wo diese Interaktion passiert, so Brenninkmeijer. Finden die Gespräche auf vertrauten Plattformen statt, werde der Chatbot-Ansatz noch mächtiger. Wenn etwa jemand mit Freunden in Messenger chattet, kann sich der Dialog mit einem Marken-Chatbot völlig normal anfühlen.
"Der Kaufabschluss wird für den Nutzer so natürlich wirken wie sein Kommunikationserlebnis auch."
Unerlässlich sei es auch, den Chatbot mit Informationen darüber zu versorgen, wie die Marke mit Benutzern oder Kunden sprechen möchte, ihm zu helfen, die Tonalität der Marke zu treffen. Die Unternehmen sollten sicherstellen, dass er alle grundlegenden Fragen beantworten kann, und dafür sorgen, dass ihm bei allen für ihn unbeantwortbaren Fragen ein Mensch Input gibt.
"KI kann einen Chatbot vielleicht verbessern, aber seine Grundlage ist sie nicht. Am Ende geht es immer um Informationen, den Zugang zu ihnen und um die Fähigkeit, durch die Verarbeitung neuer Informationen zu lernen", so Brenninkmeijer.
Ethik
Grundsätzlich gewinnen auch ethische Grundsätze für das Vertrauen der Öffentlichkeit in die Künstliche Intelligenz (KI) eine immer bedeutendere Rolle. Dazu zählt auch Transparenz bei der Datennutzung und den Abläufen. Das zeigt der Report des
Capgemini Research Institute
"Why adressing ethical Questions in AI will benefit Organizations" für die 1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern befragt wurden. Demnach steigern als ethisch empfundene KI-Interaktionen Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.
Capgemini empfiehlt folgende Strategien für eine ethische KI:
- Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von
Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
- Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
- Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.
Eine weitere Umfrage von Pegasystems unter 5000 Verbrauchern weltweit zeigt ebenfalls mangelndes Vertrauen in KI, wenn es um die Themen Moral und Ethik geht. 65 Prozent der Befragten vertrauen nicht darauf, dass Unternehmen ihr Bestes geben und glauben nicht, dass die Unternehmen ihre Technologie nutzen, um vertrauensvoll mit ihnen zu kommunizieren.
"In einer Welt, die vorgibt, kundenorientiert zu sein, glaubt die Mehrheit der Verbraucher nicht, dass Unternehmen sich tatsächlich um sie kümmern oder genügend Einfühlungsvermögen für ihre individuelle Situation entwickeln", so das nüchterne Fazit von Pegasystems.
Mehr als die Hälfte (53 Prozent) der Befragten gaben an, dass KI möglicherweise die Entscheidungsfindung verzerre. Ebenfalls 53 Prozent waren sogar der Meinung, dass die KI Entscheidungen immer auf Grundlage der Vorurteile der Person treffen wird, die ihr die ersten Anweisungen gegeben hat. Das sei nach Ansicht der Befragten unabhängig davon, wie viel Zeit vergangen sei. Nur 12 Prozent stimmten zu, dass KI den Unterschied zwischen Gut und Böse erkennen kann. Das hat Auswirkungen auf die Art und Weise, wie Kunden mit Chatbots kommunizieren.
"Unsere Studie hat ergeben, dass nur 25 Prozent der Verbraucher einem KI-System vertrauen würden, das über einen Bankkredit entscheidet, den sie haben wollen", sagt Dr. Rob Walker
, Vice President, Decisioning and Analytics bei Pega.
"Die Verbraucher bevorzugen es, mit einem Menschen zu sprechen, weil sie ihm stärker vertrauen und glauben, seine Entscheidung beeinflussen zu können. Wir brauchen KI-Systeme, die fähig sind, Unternehmen bei ethischen Entscheidungen zu unterstützen. Bei der Vergabe eines Bankkredits heißt das: Es ist nicht nur wichtig, alle regulatorischen Prozesse genau zu befolgen. Das Bankinstitut muss sich auch die Frage stellen, ob es ethisch richtig ist, ein Darlehen an einen bestimmten Menschen zu vergeben."
Moral
Eine
Studie
der
Technischen Universität Darmstadt
zeigt übrigens, dass KI durchaus in der Lage ist, von Menschen zu lernen, wie man moralische Entscheidungen trifft. Das Experiment des Centre for Cognitive Science demonstriert, dass auch ethische Überlegungen über "richtiges" und "falsches" Handeln aus großen Textdatenmengen gelernt werden können. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment eine menschenähnliche, moralische Ausrichtung heraus. Es lernte so, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben. Und dass man lieber eine Scheibe Brot toasten sollte als einen Hamster.