Die rasanten Innovationen im Bereich der künstlichen Intelligenz werden gerade allgegenwärtig in den Medien, der Öffentlichkeit und Politik diskutiert. "Large Language Models", wie ChatGPT, führen spektakulär vor Augen geführt, welche Ableitungen Machine Learning Modelle vollständig autonom treffen könnte. Das birgt große Chancen für die Nutzung von KI im Marketing, allerdings auch Risiken. Die Krankenkasse Barmer
und PIA Dymatrix
haben deshalb ein Regelwerk zum Umgang mit KI in der Marketing Automation entwickelt, noch bevor es spezielle gesetzliche Regelungen zum Einsatz von KI gibt.
Warum sollte der Einsatz von KI im Marketing reguliert werden?
Hintergrund der Entscheidung ist, dass Large Trained Models heute so weit entwickelt sind, dass sie professionelle Texte verfassen, Designs entwerfen oder sogar Musik komponieren können. Für Laien ist dabei in der Regel nicht mehr erkennbar, dass eine künstliche Intelligenz Urheber war. Die eingesetzten Modelle sind darauf trainiert, einen überzeugenden Output zu generieren, den Menschen akzeptieren. Sie können aber weder zwischen Wahrheit und Lüge, noch zwischen richtig und falsch in einem ethischen Sinn unterscheiden.
"Deshalb müssen solchen Modellen Grenzen gesetzt werden, die sowohl den möglichen Dateninput als auch den möglichen Output beschränken und beispielsweise ausschließen, dass eine KI beginnt, Fehlinformationen zu verbreiten", erklären die Partner in einer gemeinsamen Erklärung, die im Rahmen der Hauskonferenz PIA DynaSummit veröffentlicht wurde.
"In der Marketing Automation wollen wir KI vor allem dafür nutzen, mit Hilfe von prädiktiven Modellen eine ,Next Best Action' für die Nutzer vorherzusagen. Es geht also immer um die Frage, was einem Website-Nutzer oder einer Newsletter-Leserin als nächstes am meisten hilft oder sie am stärksten interessiert." Am Beispiel der Gesundheitskommunikation kann das etwa ein Überblicksartikel zu Entspannungstechniken sein, ein Yoga-Video, der Link zu einer Meditations-App oder das Anmeldeformular für einen Kurs zu progressiver Muskelentspannung.
Potenziell schädlicher KI-Output muss ausgeschlossen werden
Sollte sich das Modell in diesem Szenario einmal "irren" und eine Meditation vorschlagen, obwohl Nutzende lieber Power-Yoga machen würden, entsteht kein Schaden. Aber was, wenn das prädiktive Modell aufgrund des Suchverhaltens einer Person fälschlich zu dem Schluss kommt, dass diese unter einer lebensbedrohlichen Krankheit leidet und ihr fortan nur noch entsprechende Inhalte ausspielt? Es kann schwerwiegende Folgen haben, Menschen eine schwere Erkrankung zu suggerieren, unter der sie gar nicht leiden. Deshalb ist es an dieser Stelle sinnvoll, die Ausspielung solcher Inhalte durch eine KI generell auszuschließen.
Um solche und ähnliche Szenarien zu verhindern, hat Pia Dymatrix gemeinsam mit der Barmer ein Regelwerk konzipiert, dass die Nutzung von KI in der Marketing Automation grundsätzlich reguliert.
Das Regelwerk basiert darauf, den möglichen Daten-Input und Content-Output anhand ethischer Kriterien in vier Kategorien einzuteilen.
- Daten/Content mit inakzeptablem Risiko - zum Beispiel Krebserkrankung/Krebstherapie
- Daten/Content mit hohem Risiko - zum Beispiel Schwangerschaft/Hinweise zur Geburtsvorbereitung
- Daten/Content mit beschränktem Risiko - zum Beispiel Alter/Hinweis Darmkrebsfrüherkennung
- Daten mit minimalem Risiko - zum Beispiel Versichertenstatus/Hinweis Bonusprogramm
Je nach Einordnung auf dieser Skala werden Daten und Inhalte mehr oder weniger streng für die Nutzung in KI-Modellen reguliert oder generell ausgeschlossen. Der Einsatz von KI-Modellen soll außerdem auf der Website oder im Newsletter transparent gemacht und in einfacher Form erklärt werden. Neben dem technisch fest implementierten Regelwerk sollen Nutzer auch die Möglichkeit bekommen, selbst zu entscheiden, ob und in welchem Umfang sie Empfehlungen einer KI erhalten möchten. Es wird also auch möglich sein, die KI individuell abzuschalten.