Daten-Analyse

Bessere Einblicke mit Big Data gewinnen

Marketingentscheider können auf eine Vielzahl von auswertbaren Daten unter anderem aus Onlineshops, Webseiten, sozialen Medien und CRM-Systemen zurückgreifen, die eine Fülle an Informationen liefern. Auf Basis dieser Datenquellen können beispielsweise Click- und Conversion-Raten zur Optimierung des eigenen Webcontent abgeleitet werden, oder auch Muster des Käuferverhaltens lassen sich erkennen.

Wird zum Beispiel betrachtet, wie sich ein Kunde vor einer Kündigung verhält, lassen sich gegebenenfalls Gemeinsamkeiten ausmachen, die sich bei regelmäßigen Analysen dazu verwenden lassen, die Abwanderungsabsicht von Kunden rechtzeitig zu verhindern. Möglich ist auch, nicht nur Daten aus der Vergangenheit zu berücksichtigen, sondern Hochrechnungen und Prognosen zu erstellen. Anwendung finden diese beispielsweise in Onlineshops, indem den Kunden andere Produkte empfohlen werden, die auf bisher getätigten Einkäufen und Suchanfragen zurückgehen. So können dem Nutzer zielgerichtet Waren angeboten werden, die wahrscheinlich auf sein Interesse stoßen. Dadurch steigt die Wahrscheinlichkeit eines Kaufabschlusses oder Folgekaufs.

Welche Analysearten gibt es?

Laut Studie der Wirtschaftsprüfungsgesellschaft KPMG – befragt wurden 706 Unternehmen in Deutschland mit mindestens 100 Mitarbeitern – werden deskriptive, also beschreibende Analysen, am häufigsten durchgeführt (43 Prozent). Weitere 20 Prozent der Unternehmen planen oder diskutieren den Einsatz. Etwas weniger verbreitet sind vorausschauende Analysen – allerdings plant der Studie zufolge fast jedes dritte Unternehmen deren Einsatz in den kommenden zwölf Monaten, und fast jedes sechste Unternehmen diskutiert darüber. Präskriptive Analysen hingegen werden lediglich von etwas mehr als jedem zehnten Unternehmen eingesetzt. Laut KPMG werden diese Analysen im Gegensatz zu den vorausschauenden Analysen auch kurz- bis mittelfristig von untergeordneter Bedeutung bleiben. Ursache hierfür sei, dass es zunächst Erfahrungen im Bereich der deskriptiven und prädiktiven Analysen bedarf, bis präskriptive Analysen genutzt werden.

Die Wirtschaftsprüfungsgesellschaft prognostiziert anhand der Studienergebnisse zudem, dass sich der Fokus von Datenanalysen in den Unternehmen von etablierten, deskriptiven hin zu anspruchsvolleren, stärker zukunftsorientierten Datenanalysen verschieben wird. Gründe hierfür seien das rasante Wachstum zugänglicher Daten und zum anderen die Verbesserung der Analysewerkzeuge in Kombination mit der Möglichkeit, viele zugehörige Dienstleistungen aus der Cloud zu beziehen.

Wie analysiert man?

Soll innerhalb großer Datenmengen effizient selektiert oder Big Data ausgewertet werden, wird der Einsatz von Technologie nötig. Dazu werden die Daten aus ihren Quellen extrahiert. Ein populäres System ist Hadoop. Dies ist ein auf Open-Source basierendes, parallel arbeitendes Framework für die Speicherung und Verarbeitung sehr großer Datenmengen. Es ermöglicht vielfältige Abfragen und Analysen der Daten und kann diese zeitnah bereitstellen.

Ein weiteres Zielsystem können NoSQL-Datenbanken (Not only Struc-tured Query Language) sein. Diese bieten flexible Schemata und können gut skalieren. Dadurch sind sie flexibler, beispielsweise beim Hinzufügen neuer Felder. Ein weiterer Vorteil ist, dass auch unstrukturierte Daten gespeichert werden. In der Praxis sind NoSQL-Daten damit vor allem für Echtzeit-Applikationen geeignet, Hadoop hingegen für historische Daten.

Die laut KPMG-Studie am häufigsten verbreitete Datenbank bei Unternehmen, die bereits umfassend analysieren, ist das In-Memory-Computing, das eine schnelle Auswerung großer Datenmengen verspricht. Hierbei werden alle Daten und Informationen im Arbeitsspeicher des jeweiligen Servers gespeichert. Dieser bietet wesentlich höhere Zugriffsgeschwindigkeiten als Festplattenlaufwerke, und die Algorithmen für den Zugriff sind einfacher. Mehr als jedes vierte befragte Unternehmen, das bereits fortgeschrittene Datenanalysen durchführt, plant oder diskutiert, setzt auf In-Memory-Computing. Sieben Prozent verwenden Not only SQL-Ansätze, fünf Prozent skalierbare, verteilt arbeitende Systeme.

Die derzeit vorherrschende Stellung von In-Memory Computing lässt sich KPMG zufolge mit dessen hoher Datenverarbeitungsgeschwindigkeit und Skalierbarkeit sowie der einfachen Integration in bestehende Datenmanagement-Umgebungen erklären. Die vorliegenden Werte ließen allerdings noch keine Prognose zu, ob die relative Bedeutung der drei Technologien unverändert bleiben wird oder ob mittelfristig die bislang weniger genutzten Verfahren an Gewicht gewinnen werden. Perspektivisch sei sowohl die Integration bestehender als auch die Entwicklung vollkommen neuer Ansätze möglich.

Wie können Daten grafisch dargestellt werden?

Mit grafischen Hilfsmitteln können Marketer ihre Daten besser verstehen. Bilder erleichtern das Verständnis komplexer Zusammenhänge und beschleunigen gegebenenfalls auch Management-Entscheidungen. So eignen sich so genannte Tree-Maps beispielsweise für die Visualisierung hierarchischer Strukturen, und sie veranschaulichen Größenverhältnisse. Venn-Diagramme, die Schnittmengen veranschaulichen, eignen sich, um alle Relationen zwischen den betrachteten Mengen zu zeigen. Sie sind vor allem in der Darstellung für drei Mengen mit Kreisen bekannt und machen Ausschlussmengen, Zielgruppen und Potenziale sichtbar.

Big Data eröffnet dem Marketing neue Möglichkeiten bei der Datenanalyse, denn erstmals können Informationen über Kunden, Produkte und Prozesse umfassend betrachtet werden. Es lassen sich dadurch neue Impulse ableiten, um Kampagnen effektiver durchzuführen, Kunden zielgerichteter anzusprechen und Produkte besser zu positionieren. (smü)