Special

Big Data - Neue Chancen im Marketing

Wer die Beweggründe und das Verhalten seiner Kunden versteht, steigert deren Zufriedenheit und damit den eigenen Profit. Die immer weiter ansteigende Datenflut und -vielfalt stellt Unternehmen jedoch vor gewaltige Probleme. Aus Sicht vieler Marketingleiter ist die Analyse von "Big Data" daher eine zentrale Herausforderung der kommenden Jahre.

Big Data - Neue Chancen im Marketing

© Hersteller/Archiv

Big Data - Neue Chancen im Marketing

Das Konsumentenmarketing hat sich im Lauf von nur einer Generation massiv gewandelt. Wo früher breite Käuferschichten über Massenmedien und Massenmailings von den Vorteilen eines Produktes überzeugt werden sollten, ist es heute State-of-the-art, den Kunden gezielt und individuell anzusprechen und jedem das passende Angebot zur richtigen Zeit und zum angemessenen Preis zu machen.

Autor: Dr. Marcus Dill - mayato GmbH

© Hersteller / Archiv

Der Autor: Dr. Marcus Dill - Geschäftsführer der mayato GmbH

Zu wissen, welches Produkt und welche Dienstleistung ein Kunde gerade benötigt und wie viel er bereit sein könnte, dafür zu bezahlen, erfordert ein genaues Verständnis der Person, ihrer Lebenssituation, ihres Verhaltens und ihrer Bedürfnisse. Je präziser dieses Verständnis und je genauer die Prognose zukünftigen Verhaltens, desto höher die Wahrscheinlichkeit einer positiven Reaktion des Kunden und damit letztlich auch eines Kaufabschlusses.

Desto höher ist in der Regel aber auch die Zufriedenheit und Loyalität des Kunden, der sich besser verstanden und bedient fühlt. Und desto niedriger sind die Kosten dank eines gezielteren Einsatzes von Unternehmensressourcen. Modernes analytisches Marketing wirkt sich somit auch auf die Kundenbindung und die Profitabilität der Kundenbeziehung aus.

Die Grenzen menschlicher Analysefähigkeiten

Trotz vieler technologischer und organisatorischer Fortschritte sind die Herausforderungen, die mit Kundenverhaltensanalysen einhergehen, nach wie vor gewaltig. Tatsächlich nehmen sie sogar zu: Internet, mobile Endgeräte, soziale Medien und nicht zuletzt die vielen meist unsichtbaren Sensoren in den uns umgebenden Geräten, sie alle erzeugen eine Flut an Daten, die es zu bewältigen gilt - hinsichtlich Aufbewahrung, Integration und Auswertung.

Zur Beschreibung dieser neuen Datenflut wird heute gerne der Begriff Big Data verwendet. Das große Volumen wird von vielen als das primäre Problem von Big Data gesehen. Tatsächlich birgt Big Data aber eine Vielzahl an weiteren Aspekten, die verstanden und gemeistert sein wollen.

Vielfalt, Volumen und Komplexität der heute verfügbaren Daten machen es menschlichen Analysten sehr schwer, darin enthaltene Zusammenhänge zu identifizieren. Oft lassen sich bestenfalls Annahmen und Vermutungen entwickeln und mit einigem Aufwand überprüfen, wofür in der Welt der Realtime-Prozesse meist aber schlicht keine Zeit ist.

Komplexere Muster entziehen sich selbst bei bester Performance und Visualisierung einer hypothesengetriebenen Analyse. Sie sind in der Praxis selbst für die smartesten menschlichen Analytiker praktisch unsichtbar. Hier hilft nur noch der Einsatz von intelligenten Algorithmen, die weitgehend ohne menschliches Zutun solche Zusammenhänge erkennen und die Ableitung von Prognosen erlauben (Predictive Analytics).

Moderne Data-Mining-Verfahren sind in der Lage, auch Effekte zu erkennen, die durch das Zusammenwirken von vielen Dutzend Einflussfaktoren entstehen, selbst wenn diese in Millionen oder gar Milliarden von Datensätzen versteckt sind, und diese Datensätze aus einer fünf- oder mehrstelligen Anzahl von Attributen bestehen.

Technologischer Paradigmenwechsel

Dass mittels Data Mining gewonnene Vorhersagemodelle nicht nur theoretischen Wert haben, beweist das Database Marketing in der Praxis schon seit vielen Jahrzehnten. Der Einsatz von Predictive Analytics zur Prognose von Kundenverhalten und Markttrends ist für viele Unternehmen zum unverzichtbaren Werkzeug geworden.

Durch Big Data haben sich die Größenordnungen geändert: Waren früher Analysen zu Millionen Kunden und Zig Millionen Transaktionen die Grenze des Vorstellbaren, haben viele Unternehmen mittlerweile Bestände von über hundert Millionen Kunden und verarbeiten täglich Milliarden an Transaktionen und anderen Ereignissen im Kundenkontakt.

Der Umgang mit solchen Datenmengen führt zunehmend herkömmliche Datenbank- und Analysetechnologie an ihre Grenzen und erzwingt in vielen Unternehmen einen technologischen Paradigmenwechsel. In-Memory-Lösungen und Massiv-Parallel-Architekturen, aber auch ganz neue Technologien wie Hadoop gewinnen an Verbreitung.

Wer nur den quantitativen Aspekt betrachtet, macht bei Entscheidungen über die einzusetzende Technologie für Big Data möglicherweise Fehler. Beispielsweise gibt es zunehmend Echtzeitanforderungen an die Verfügbarkeit und Analyse großer Datenbestände direkt innerhalb von Geschäftsprozessen.

Die moderne Welt erwartet smarte Informationen in Sekundenbruchteilen auf dem Smartphone. Hinter einem einfachen Knopfdruck kann aber eine Analyse gigantischer Datenbestände liegen, die natürlich ebenfalls in Echtzeit ablaufen muss. Die zunehmende Geschwindigkeit von Aktionen und Reaktionen im Kundenkontakt macht automatisierte Entscheidungen und Empfehlungen unverzichtbar, die von intelligenten Algorithmen statt von Mitarbeitern stammen.

Big Data Analytics ist daher immer öfter eingebettet in vollautomatisierte Prozesse, in denen der Mensch nur noch im Ausnahmefall korrigierend eingreift. Klassische Data-Warehouse-Architekturen sind für diese Art von Anforderungen ungeeignet.

Alles ist analysierbar

Big Data enthält jedoch auch Daten, die man früher in dieser Form und Vielfalt nicht kannte oder die man lange Zeit für - mit vertretbarem Aufwand und Standardtechnologien - nicht analysierbar hielt: Unstrukturierte Textdaten (zum Beispiel Inhalte von Webseiten und sozialen Netzwerken), Bilder, Videos, Audiodaten und vor allem natürlich die Daten aus mobilen Endgeräten und Sensoren, die etwa den Aufenthaltsort von Personen oder der Status von Objekten (Maschinen, Fahrzeugen oder Software-Installationen) preisgeben.

Das klassische Database Marketing verarbeitete vor allem strukturierte Daten aus relationalen Datenbanken oder Flat Files. Schon um die Jahrtausendwende brachten vor allem CRM-Systeme neue Datenquellen mit sich. Call Detail Records aus Call-Centern und Click-Stream-Daten aus dem Web wurden aus Volumen- und Performance-Gründen zumeist nicht in transaktionale Datenbanken übernommen, sondern blieben in Dateien ausgelagert.

Das Interesse an diesen Daten war zunächst sehr hoch in den Marketingabteilungen. Es schien besonders vielversprechend, sie in Verbindung mit den Stamm- und Transaktionsdaten eines Kunden zu bringen und so ein vertieftes Verständnis des Kundenverhaltens zu entwickeln. Auch für die Erfolgskontrolle von Marketingaktionen versprach man sich Fortschritte.

Innovationen im Web-2.0-Zeitalter

Die Kosten für die Aufbewahrung und der Aufwand für die Analyse dieser Daten verhinderten jedoch zunächst ihre breite Nutzung. Mittlerweile haben die erwähnten technologischen Entwicklungen wie Hadoop, In-Memory- und Parallelarchitekturen, aber auch viele Innovationen im Bereich Text Mining die Nutzungsschwelle gesenkt.

Wo Web-Logs und Call-Center-Protokolle noch eine gewisse Struktur aufweisen, kamen mit dem Aufkommen des Web 2.0 im letzten Jahrzehnt verstärkt Datenquellen hinzu, die aus völlig unstrukturierten Texten bestehen, die aber auch gar nicht mehr aus den unternehmenseigenen Systemen stammten.

Das Internet bietet mittlerweile eine Unzahl an hochinteressanten - strukturierten wie unstrukturierten - Daten, die äußerst wertvoll für Analysen sein können. Handelsunternehmen nutzen beispielsweise zunehmend historische Wetterdaten, um Korrelationen mit Abverkäufen zu identifizieren.

Populär geworden - zumindest in den Medien und den Demos der einschlägigen Hersteller von Analysesoftware - ist auch die Sentimentanalyse. Mit ihrer Hilfe werden Stimmungen und Einstellungen zu Themen, Produkten oder Firmen automatisch erkannt. Auf diese Weise kann kursierenden Gerüchten und Kritik im Internet frühzeitig begegnet werden.

Das Meinungsbild im Web 2.0 ist aber auch ein Frühwarnsystem für Trends oder Umsatzrückgänge in bestimmten Sparten, und es liefert besonders im Konsumentengeschäft wertvolle Hinweise auf zukünftige Nachfragen oder die sinnvolle Stoßrichtung von zukünftigen Marketingaktionen.

Ausblick

Die Auswertung von nichttextuellen Informationen, etwa Bild- und Videodaten, erfordert zumeist andere Algorithmen, als man sie bis dato im Data Mining eingesetzt hat. Auch wenn die akademische und industrielle Forschung in diesem Umfeld sehr aktiv sind, ist der Einsatz von Bild- und Tonanalysen im Marketing noch relativ wenig verbreitet.

Die kritische Masse an pfiffigen Ideen und lukrativen Geschäftsmodellen ist hier noch nicht erreicht. Google, Facebook, Apple und Co. machen mit ihren verbreiteten Applikationen, zum Beispiel für Gesichts- und Spracherkennung, mittlerweile aber jedem klar, welche technischen Möglichkeiten grundsätzlich bestehen. Es ist also mit einer Zunahme solcher Anwendungen und auch des Einsatzes solcher Technologien für Analysen im Marketing zu rechnen.

Zuvor dürften dort jedoch zwei andere Themengebiete weiter an Relevanz gewinnen: zum einen Standortinformationen - egal, ob in Form von Bewegungsprofilen im Supermarkt oder im Zusammenhang mit Location-Based Services - zum anderen die Analyse von Produktnutzungsdaten, die von Softwareprodukten oder verschiedensten Arten von Maschinen und Fahrzeugen an den Hersteller übermittelt werden.

Mithilfe solcher Informationen lässt sich ein tiefes Verständnis von Kunden und deren Verhalten entwickeln. Datenschützer, die immer schon ein kritisches Auge auf derartige Analysen im Marketing geworfen haben, betrachten diese neuen Möglichkeiten mit großer Aufmerksamkeit. Hier sind zweifellos auch ethische Standards und verfeinerte gesetzliche Regelungen gefragt.

Statement - So fördern Sie das "Öl des 21. Jahrhunderts"

Carl-Rainer Stetter - Atos

© Hersteller / Archiv

Carl-Rainer Stetter - Leiter des Global Competence Centers SAP Business Intelligence / Analytics bei Atos

"Heute schon zu wissen, wie sich wirtschaftliche Rahmenbedingungen für Produkte oder Markttrends entwickeln werden - das ist der Traum eines jeden Unternehmensentscheiders. Deshalb investieren in diesem Jahr laut einer weltweiten Studie des IT-Research- und Beratungsunternehmens Gartner 42 Prozent der befragten IT-Leiter verstärkt in Big-Data-Technologien oder planen eine Investition innerhalb der nächsten zwölf Monate.

Business Intelligence (BI) bietet leistungsstarke IT-Tools, um den in Zeiten von Big Data rasant wachsenden Rohstoff Daten - laut den Analysten von Gartner ,das Öl des 21. Jahrhunderts' - in Echtzeit in verwertbare Informationen umzuwandeln. Neben der technologischen wird nun auch eine unternehmerische Innovation notwendig. Um einen maximalen Nutzen aus den technischen Möglichkeiten zu erzielen, ist ein Umdenken im Rahmen der Analyse geschäftsbezogener Daten und auch der Entscheidungsfindung nötig.

Was sollten Unternehmen beachten, wenn sie Big-Data-Lösungen einführen? Allein die Installation einer Analyse- und Prognose-Technologie reicht noch nicht aus, um einen Mehrwert für das Unternehmen zu liefern. Vielmehr benötigen sie vor allem intelligent gesammelte, aktuelle und korrekte Daten, die zielgerichtet aufbereitet und aussagekräftig visualisiert werden sollten. Das Stammdatenmanagement darf weder redundante noch unvollständige oder unkorrekte Daten enthalten. Vorab sollten Unternehmen definieren, welche Daten für die Entscheidungen gesammelt und ausgewertet werden sollen. Je genauer der Filter, desto eher liefern BI-Systeme sowohl Details als auch den großen Überblick mit wenigen Mausklicks. Das setzt ein tieferes Verständnis der Geschäftsprozesse und internen Strukturen voraus.

Wie die aktuelle Technologie-Studie von Gartner zeigt, lassen sich 15 der wichtigsten 19 Geschäftsprozesse eines Unternehmens weitestgehend durch BI, Predictive Analytics und Performance-Management-Technologien abdecken. Eine besondere Bedeutung für strategische Unternehmensentscheidungen werden dabei künftig vorausschauende Techniken haben. Bis 2020 wird Predictive-Analytics-Software allgegenwärtig sein.

Während Unternehmen bisherige BI-Ansätze in erster Linie zu qualifizierten Aussagen über die gegenwärtige Situation nutzen, erlaubt Predictive Intelligence einen Blick in die Zukunft. Wichtig ist hier vor allem die Verarbeitungsgeschwindigkeit der Daten. Denn das Datenvolumen steigt kontinuierlich an, Informationen liegen verstreut in vielen unterschiedlichen Formaten vor. Bisherige Lösungen sind diesen Herausforderungen nicht mehr gewachsen. Anwendungen wie die In-Memory-Technologie SAP HANA sind die Antwort darauf. Damit können Zukunftsszenarien nahezu in Echtzeit durchgespielt werden. Dies steigert die Genauigkeit der Prognosewerte. Und die Nase vorn werden wie immer diejenigen haben, die auf die Veränderungen des Marktes am schnellsten reagieren."

Statement - Eine neue Generation der Datenanalyse

 

Olaf Brandt - etracker GmbH

© Hersteller / Archiv

Olaf Brandt - Director Product Management bei der etracker GmbH

"Mit der Entwicklung des Internets von einem Informationsmedium hin zu einem interaktiven Kommunikationskanal bedarf es auch einer neuen Generation der Datenanalyse: Gefragt sind nutzerzentrische Rohdaten-Analysen, flexible Abfragen und Ergebnisse, die sofort verfügbar sind.

Website-Betreiber überprüfen den Erfolg ihres Online-Auftrittes und ihrer Online-Marketing-Kampagnen anhand unterschiedlichster KPIs - eine wirklich flexible und dynamische Ad-hoc-Datenanalyse ist jedoch auf Basis der bisherigen Softwarearchitekturen in der Regel nicht ohne lange Wartezeiten möglich. Ebenso wenig lassen sich die Daten spontan filtern, segmentieren oder aus unterschiedlichen Perspektiven auswerten. Ursache dieser Einschränkungen ist insbesondere der Einsatz statischer Reports, die per se nicht für die explorative Auswertung von Massendaten (Big Data) ausgelegt sind.

Dementsprechend gibt es seitens der Anwender einen Bedarf an neuen Lösungen für die Erfassung, Verarbeitung und Analyse von Massendaten. Erst mit der Erfassung von Rohdaten, die nutzerzentrisch aufbereitet, in einer Big-Data-geeigneten Datenbank gespeichert und in einem flexiblen Reporting bereitgestellt werden, lässt sich diesem Bedarf entsprechen."

Mehr zum Thema

Behavioral Marketing
Behavioral Marketing

Behavioral Marketing versucht das Verhalten der Nutzer zu analysieren und Werbemaßnahmen darauf abzustimmen. Der Trend ist klar zu erkennen:…
image.jpg
Suchmaschinenoptimierung

Sistrix Smart ermöglicht reibungslosen Einstieg in das Thema SEO, denn typische Fehler werden nicht nur aufgelistet - Sistrix Smart zeigt ebenso, wie…
Google Suche auf Android
Suchmaschinenoptimierung

Sieben SEO-Tipps für mobile Endgeräte: Von Nutzerfreundlichkeit über ein responsives Webdesign, prägnante URLs bis zu den Inhalten.
cloud computing
Cloud Computing

Ein Cloud-basierter Connectivity Management Service hilft Unternehmen bei der Analyse von Big Data.
image.jpg
Big Data Analytics

Big Data Analytics hat Geschäftsprozesse in vielen Bereichen effizienter gemacht. Voraussetung ist, dass die Daten vollständig, konsistent und…