Anzeige
Anzeige

Big Data - Anwendungsbeispiele im CRM

14.10.2014 - Big ?Data - neue Technologien bieten die Möglichkeit, Kunden auf Basis großer Datenmengen auf eine ganz neue Art kennen zu lernen; entscheidend dabei ist der richtige Anwendungsfall. Dem Thema Big Data wurde in den vergangenen Jahren eine stetig wachsende Bedeutung zugemessen. Oft liest man von gestiegenen Datenmengen, vor allem durch das Web 2.0, bei dem der Nutzer eigene Inhalte erstellt und sich vernetzt.

Doch bei Big Data geht es nicht nur um die Vielzahl und Größe von Daten, die zu verwerten sind. Auch die Form der Daten hat sich verändert. Während früher Unternehmensdaten vornehmlich strukturiert waren und in relationalen Datenbanken gespeichert wurden, bestehen mit Big Data auch neue Möglichkeiten, semi- und unstrukturierte Daten zu analysieren.

Generell sind die technischen Fortschritte ein großer Treiber von Big Data. So ist neben der Anzahl und Größe an Daten (Volume) und deren Vielfalt an Formen (Variety) auch entscheidend, dass Analysen schnell zur Verfügung stehen (Velocity). Diese drei Herausforderungen werden mit Hilfe der Big-Data-Technologien gelöst. Aber all diese technischen Möglichkeiten bringen noch keinen direkten Nutzen. Erst durch geeignete Fragestellungen und Anwendungsfälle kann auch ein wirklicher Mehrwert (Value) durch Big Data erreicht werden. In diesem Artikel werden mögliche Fragestellungen aufgezeigt, um mit Hilfe von Big Data das Kundenbeziehungsmanagement zu optimieren. Gleichzeitig wird ein kurzer Einblick in die technologischen Prinzipien hinter Big Data gegeben.

Die Daten, die zur Verfügung stehen, bleiben oft ungenutzt, und ein Mehrwert wird nicht daraus realisiert

In den meisten Unternehmen ist man sich der Menge an vorhandenen Daten oft nicht bewusst. Aber aus jeder Interaktion mit dem Kunden kann auch ein analytischer Mehrwert entstehen. Denn der Kunde teilt mit jeder Kommunikation gleichzeitig auch Informationen über sich und sein Verhalten mit.

Zum Beispiel kontaktieren Kunden ein Call-Center, um sich über Produkte zu informieren, sich zu beschweren oder Fragen zu stellen. Diese Anrufe können viele wertvolle Informationen enthalten, etwa ob ihr Produktzuschnitt für die Kunden passend ist oder ob sich Kündigungen anbahnen, denen man vorbeugen kann. Der Call-Center-Agent ist aber mit der Informationsweitergabe oder der operativen Behandlung der Beschwerde beschäftigt und hat für analytische Fragestellungen keine Zeit. Daher ist es notwendig, die Gesprächsinhalte durch geeignete Technologien analytisch nutzbar zu machen. Beispielsweise durch die Analyse und Verschlagwortung legitimiert aufgezeichneter Gespräche.

Ein anderer häufig gewünschter Anwendungsfall ist die Analyse sozialer Netzwerke. Wenn beispielsweise die Möglichkeit besteht, "Likes" und Kommentare zum eigenen Unternehmen oder den Produkten in den sozialen Netzwerken mit Kundendaten zu verbinden und diese ins CRM zu transportieren, um sie dort zu analysieren, dann versteht man die hohen Erwartungen, die in den letzten Jahren immer mehr in Big Data gesetzt werden.

Kritisch zu betrachten im Kontext der Analyse von Kundendaten sind vor allem die rechtlichen Rahmenbedingungen. Nicht unbegründet ist daher bereits vom "gläsernen Kunden" die Rede. Denn hinter den Vorteilen, Erkenntnisse aus solchen Datenbergen über Kunden zu erhalten, stehen natürlich immer auch Themen wie Datenschutz und personelle Selbstbestimmung.

Bevor wir aber zu den Herausforderungen rund um Big Data kommen, werden zunächst die technischen Grundlagen skizziert, die die Realisierung der Anwendungsfälle ermöglichen. Betrachtet man dazu die drei vorher angesprochenen Herausforderungen, die Menge an Daten, die Vielfältigkeit der Daten und die Geschwindigkeit, in der die Daten analysiert werden müssen, so kann man genau drei Themengebiete entdecken, die in den vergangenen Jahren immer gefragter wurden. Um eine Menge an Daten zu verarbeiten, ist die Lösung mit der größten Relevanz das dezentralisierte Berechnen von parallel zu verarbeitenden Programmen. Google hat einen äußerst effektiven Algorithmus entwickelt, den Map-Reduce-Algorithmus. Der verarbeitet durch die Verteilung hoch parallelisierter Rechen-operationen große Datenmengen in kurzer Zeit. Dieser Ansatz wurde von Programmierern adaptiert und unter dem Projektnamen "Hadoop" als Open-Source-Code bereitgestellt.

Um der Herausforderung zu begegnen, dass neben strukturierten Daten nun auch semi- oder gar unstrukturierte Daten verarbeitet werden sollen, sind neben der klassischen zeilenorientierten Datenbank mehrere neue Speichermethoden entwickelt worden. Auch hier ist der Suchmaschinenanbieter, der mit der Indexierung des Internets natürlich viele Daten in allen Formen verarbeiten muss, Vorreiter gewesen und hat dafür ein eigenes Speichermodell entwickelt, den so genannten "Big Table". Dabei ist die Anzahl an Spalten pro Zeile nicht festgelegt, sondern wird datengetrieben pro Zeile individuell definiert. Um die Geschwindigkeit zu erhöhen, in der komplexe Analyseaufgaben gelöst werden müssen, wird immer häufiger In-Memory-Technologie verwendet, bei der die Daten im viel schnelleren Arbeitsspeicher liegen und nicht auf Festplatten zwischengespeichert werden. Unterstützt wird diese Entwicklung durch die stetig sinkenden Preise für Arbeitsspeicher innerhalb der letzten Jahre.

Diese genannten Methoden und Technologien verwendet beispielsweise ein Kreditkartenhersteller und versucht so, diejenigen Kunden, die sich bald scheiden lassen werden, anhand ihrer Transaktionen bestimmen zu können. So wurde analytisch aus einer sehr großen Masse an Kundentransaktionen ermittelt, dass diese Kunden plötzlich vermehrt Einrichtungsgegenstände wie Möbel, Handtücher und Bettwäsche kauften sowie vermehrt auf Diätprodukte setzten und mehr Alkohol tranken.

Ziel eines Automobilherstellers wiederum ist es, einen Werkstattaufenthalt zu verkürzen und die Effizienz der Werkstatt zu erhöhen, indem das Auto die Fehler schon an die Werkstatt übermittelt, sobald sie auftreten, und nicht erst, wenn das Auto in der Werkstatt ist. Dazu werden bis zu 75 Steuergeräte in ein Fahrzeug verbaut, welche Datenmengen bis zu 15 Gigabyte produzieren.

"Können nun mit diesen Technologien die oben beschriebenen Anwendungszwecke problemlos realisiert werden?"

Was immer häufiger sichtbar wird, ist eine Lücke zwischen Theorie und Praxis, wenn es um die Realisierung von Anwendungsszenarien geht, vor allem im Bereich CRM. Nicht nur der "gläserne Kunde" wird durch das Gesetz geschützt, sondern auch die technische Verknüpfung von Facebook-Profilen mit den unternehmensinternen Daten stellt eine Herausforderung dar. Denn zum einen muss der Kunde dieser Verwendung seiner Daten zustimmen (was meist über Gewinnspiele, Aktionen oder Spiele versucht wird), und zum anderen muss der Facebook-Account mit dem richtigen Kunden zusammengeführt werden, was teils schwierig ist, da häufig nicht der richtige Name angeben wird oder alternative E-Mail-Adressen genutzt werden.

Dies sind nur einige Gründe, die den Einsatz von Big-Data-Technologien vor mehrere Herausforderungen stellt, die aber durchaus lösbar sind.

Zunächst ist es notwendig, entsprechende Anwendungsfälle zu finden, die den Einsatz von Big-Data-Technologien erfordern und insbesondere deren Mehrwert der Investition in Big Data gegenüberzustellen.

Weiterhin ist es erforderlich, nicht nur viele Daten analysieren zu wollen, sondern auch inhaltlich und qualitativ geeignete Daten zu verwenden, die sich über unterschiedliche Quellen hinweg verknüpfen lassen. Daher startet ein Big-Data-Projekt nicht erst mit der Einführung neuer Technologien, sondern bereits bei der Definition von Anwendungsfällen, der Berechnung von Business Cases und der Analyse, welche Daten vorhanden sind beziehungsweise benötigt werden.

Liegt eine geeignete Datenbasis vor, kann ein Proof of Value bereits mit traditionellen Business-Intelligence-Werkzeugen durchgeführt werden, die heute bereits größere Datenmengen immer schneller verarbeiten können.

Insbesondere Tools zur visuellen Ad-Hoc-Analyse eigenen sich dabei zur Überprüfung von Hypothesen von Anwendungsfällen oder zeigen Potenziale einer Realisierung auf. Möglicherweise kann auch die visuelle Analyse Auffälligkeiten zu Tage fördern, die sich für weitere Anwendungsfälle nutzen lassen.

So muss man festhalten, dass sehr viele Themen, fachlicher und technischer Art, unter dem Begriff Big Data subsummiert werden können. Nahezu alles bringt interessante Anwendungsfälle mit, deren Mehrwert den Investitionen in Big-Data-Technologien gegenüberzustellen und abzuwägen ist. In einigen Fällen kann das Ergebnis sein, dass mit der Vorstufe über exis-tierende Technologien bereits ein erster Mehrwert generiert werden kann und dedizierte Big-Data-Methoden anschließend viel zielgerichteter eingesetzt werden können. Wurden Big-Data-Technologien bereits in einem Unternehmen eingeführt oder halten durch die stetige Weiterentwicklung existierender Werkzeuge langsam Einzug, so kann auch mit Anwendungsfällen experimentiert werden, und es können so ungeahnte Chancen aufkommen.

Voraussetzung für den Einsatz von Big-Data-Technologien bleibt jedoch immer ein nachhaltiges und fundiertes Informationsmanagement, denn die Qualität der Quelldaten entscheidet über die Qualität der Ergebnisse, auch bei Big Data. (aus OtO 10/14)

[k]Hier erfahren Sie mehr:

BÜCHER [Veröffentlichungen der BITKOM - Big Data Summit 2014 (http://www.bitkom-bigdata.de/Programm/2014)]:

Pavlo Baron - BIG DATA FÜR IT-ENTSCHEIDER - ISBN: 978-3-446-43339-7

Kenneth Cukier & Viktor Mayer-Schönberger - Big Data: A Revolution That Will Transform How We Live, Work and Think - ISBN 978-0544002692

Mirko Schrempp (Hg.) - Big-Data- Technologiegrundlagen - ASIN: B00AW7LKVO

Bernd Fondermann, Kai Spichale & Lars George - Big Data - Apache Hadoop - ASIN: B007IRWGS2[/k]

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Diskussion:

Vorträge zum Thema:

  • Bild: Thilo Kerner
    Thilo Kerner (Sybit GmbH)

    Wie Sie ein wirklich sinnvolles Management-Dashboard für Marketing und Vertrieb aufsetzen

    Wie definieren Sie die wirklich wichtigen KPIs für Marketing und Vertrieb? Und wie steuern Sie dann mit diesen Ihre Marktbearbeitung erfolgreich? Thilo Kerner, Chief Revenue Officer der Sybit GmbH zeigt an Beispielen aus der konkreten Vertriebs- und Marketingpraxis, wie ein wirklich nützliches Marketing-Dashboard aussehen muss und wie Sie kennzahlengesteuertes Management im Unternehmen aufsetzen. Außerdem liefert er Tipps und Strategien, um KPIs effektiv im Geschäftsalltag Ihres Unternehmens zu integrieren.

    Vortrag im Rahmen der Daten & KI 2024. Künstliche Intelligenz, Datengestütztes Marketing und Vertrieb am 14.05.24, 10:00 Uhr

Anzeige
Anzeige
Anzeige
www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.versandhausberater.de