07.12.2020 - Ist es Ihnen schon einmal aufgefallen: Wenn aktuell über datengestütztes Marketing gesprochen wird, dann geht es sehr oft um Künstliche Intelligenz. Das ist richtig - Marketingautomation und Marketingintegration sind die Themen, die uns die kommenden zwanzig Jahre beschäftigen werden. Gleichzeitig ist es aber auch gefährlich, weil irreführend.
von Joachim Graf
Es gibt drei Probleme, die ein Marketingentscheider lösen muss, wenn er sich mit der sogenannten 'Künstlichen Intelligenz' auseinandersetzt: Die Daten, die Unternehmensprozesse und die Algorithmen. Das erste Problem, mit dem man sich auseinandersetzen muss, ist die Datenqualität: Wenn die verwendeten Daten schlecht sind, dann kann auch der beste Algorithmus nichts retten. Scheiß-Daten führen zu Scheiß-Ergebnissen. "Garbage in - Garbage out" gilt seit Beginn des Computerzeitalters. Und in Zeiten der Echtzeit-Datenverarbeitung gilt es um so mehr. Ohne Datenpflege, ohne Datentesting, ohne Validierung erzeugt die hochgelobte KI am Ende nur eines: Datenbrei. Doch Datenpflege, Datentesting und Validierung sind nur bei wenigen Unternehmen wirklich eine Kernkompetenz.
"Wenn man einen Scheißprozess digitalisiert, bekommt man einen digitalen Scheißprozess" . Der damalige Telefonica
-CEO Thorsten Dirks
hat dieses Wort bereits im Jahr 2015 geprägt. Dahinter steckt die Erkenntnis, dass sich Prozesse nicht allein deswegen auf geheimnisvolle Art verbessern, weil man sich maschinengestützt den Kunden (oder irgend eine andere Art von Problem) vom Hals halten kann - und sie von der Bildfläche verschwinden.
Aber genau wie schlechte Daten zu schlechten Ergebnissen führen - schlechte Prozesse tun das auch. Doch der Algorithmus, der hinter jeder künstlichen Intelligenz steckt, erkennt das nicht - anders als ein Mensch. Künstliche Intelligenz ist nur ein Algorithmus. Und hinter jedem Algorithmus steckt der Nerd, der ihn programmiert hat. Wenn ein Mensch denkt, Schwarze werden eher straffällig als Weiße, dann wird eine Gerichtsurteil-KI wie der in US-Gerichten eingesetzte Compas von Equivant rassistisch urteilen - wie eine Studie nachgewiesen hat. Microsofts Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Algorithmen sind gut in der Mustererkennung. Aber sie holen nur das aus einem Datenstrom heraus, was auch drin steckt. Und je mehr Daten sie haben, um so mehr Rauschen bekommen - bis schließlich der Algorithmus Muster erkennt, die im Datenstrom überhaupt nicht drin stecken. Das passiert auch Menschen - "Pareidolie" nennen Wissenschaftler das Phänomen, das uns Gesichter in Marsbergen oder den Teufel in den Rauchwolken des brennenden World-Trade-Centers erkennen lassen. Doch was ein Mensch durch seine Intelligenz als Trugbild erkennen kann, bleibt für einen Algorithmus ein erkanntes Muster. Er hat eben keine Intelligenz, sondern ist eine dumme Maschine.
Wenn Marketer erkennen, dass Prozesse und Algorithmen (erstens) maximal so gut wie die darunterliegenden Daten, sie (zweitens) nicht mehr aus den Daten herausholen können, als in ihnen steckt und (drittens) sie nur das tun, was ihnen gesagt worden ist - dann haben sie eine Handhabung gegen die Folgen dummer Maschinen und schlechter Daten.
Dieses Special gibt Ihnen noch weitere Handreichungen dazu. Zusammen mit der Onlineveranstaltung 'Datengestütztes Marketing und KI' als Erweiterung, die Sie als Livevent und als Webcast auf https://www.ONEtoONE.de/webinar
abrufen können.
Ihr Joachim Graf,
Herausgeber
Mischenrieder Weg 18
82234 Weßling
Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de