IT-Strategien

So sorgen Unternehmen für mehr Datenqualität

Information gilt inzwischen oft als wichtigstes Unternehmensgut. Dennoch wird die Sicherung der Datenqualität in vielen Unternehmen noch sträflich vernachlässigt.

Unternehmen,MAnagemenr,Datenqualität

© Archiv/Hersteller

Unternehmen,MAnagemenr,Datenqualität

Wir stehen heute an der Schwelle vom rein marktgetriebenen hin zum datengetriebenen Unternehmen. Daten werden immer wichtiger und Information gilt inzwischen mit als wichtigstes Unternehmensgut. Big Data verändert in diesem Zusammenhang die Art und Weise, wie Unternehmen ihre Entscheidungen treffen, denn Big-Data-Analytik kann neue Einsichten geben und bisher unbekannte Strukturen und Verhaltensmuster zum Beispiel von Kunden und Interessenten aufdecken.

Eine Studie der MIT Sloan School of Management zeigt beispielsweise, dass Unternehmen, die voll auf digitale Technologien setzen, im Schnitt um 26 Prozent profitabler sind als entsprechende andere Unternehmen. 66 Prozent der Befragten der MIT-Studie W sagten, sie erreichten einen Wettbewerbsvorsprung durch Analytik.

"Unsere Daten sind doch in Ordnung"

Datengetriebene Unternehmen erreichen also nachweislich Vorteile. Doch wie gehen wir aktuell mit unseren Daten und der daraus gewonnenen Information um? Wie sieht die Realität eigentlich aus? Hier gilt in zu vielen Unternehmen immer noch die Devise: Unsere Daten sind doch in Ordnung! In Wahrheit sieht es anders aus. Zahlen in verschiedenen Berichten und Dashboards weichen voneinander ab. Entscheidungen werden auf Basis von Fakten getroffen? Fehlanzeige! Gleichzeitig steigt unter anderem die Anzahl abgebrochener Transaktionen, weil wichtige Basisdaten fehlerhaft sind, steigt die Anzahl von Stornierungen, weil Kunden falsche Produkte zugestellt bekommen, steigt die Zahl der Retouren, weil die Adressdaten nicht mehr stimmen.

Da wird man hellhörig, denn zumindest sieht man, dass so die Kosten steigen. In einer Hauruck-Aktion wird dann oft eine Datenqualitätsmanagement- Maßnahme beschlossen, die jedoch allenfalls die Symptome reflektiert, die eigentlichen Ursachen jedoch völlig außer Acht lässt. So wird beispielsweise eine Massendatenbereinigung eingeleitet.

Unternehmen,IT,Strategien

© Dr. Wolfgang Martin

Die Autoren: Dr. Wolfgang Martin (Analyst beim Wolfgang Martin Team) und...

Zuerst macht man ein Profiling, um den Datenbestand zu analysieren. Das erlaubt qualitative Aussagen zu den Daten im Hinblick auf ihre Vollständigkeit, Korrektheit und Redundanz. Hat man so die Schwachstellen identifiziert, lässt sich mit der anschließenden Datenbereinigung das notwendige Qualitätsniveau wiederherstellen.

In manchen Fällen unterbleibt auch ein vorgelagertes Profiling der Daten und die eigentliche Bereinigung wird direkt gestartet - mit den entsprechenden Konsequenzen. Vielfach wartet man danach, bis wieder Datenqualitätsprobleme auftreten und wiederholt dann die Prozedur ad hoc.

Unternehmen,IT,Strategien

© Holger Stelz

... Holger Stelz (Leiter Marketing & Geschäftsentwicklung bei Uniserv).

Etwas fortschrittlichere Unternehmen wiederholen in einer gewissen vorbeugenden Art und Weise die Bereinigung in gewissen Zeitabständen. Die Datenqualität über die Zeit entspricht so in ihrem Abbild einer Sägezahnkurve. Die Datenqualität ist nach einer Bereinigung am höchsten und fällt dann mit der Zeit kontinuierlich ab, bis wieder eine Datenbereinigung durchgeführt wird und die Datenqualität so wieder auf den Sollwert gebracht wird.

Datenqualitätsmanagement ist Risikomanagement

Optimal ist das nicht, denn Vorbeugen ist besser als Heilen. Und das Prinzip der Vorsorge gilt: Ein Schaden soll erst gar nicht eintreten. Das ist natürlich besonders wichtig im Geschäftsleben: Risiken zu vermeiden, ist besser, als entstandene Schäden nachträglich zu beheben. Denn Risiken zu vermeiden, bedeutet nicht nur geringere Kosten, sondern beispielsweise auch Prozesse, die weiterlaufen und nicht zum Stillstand kommen oder gar abbrechen. Das bedeutet vor allem auch Zeitgewinn. Risiken zu vermeiden, ist das Ziel des Risikomanagements: die (Ab-)Sicherung des Unternehmens.

In diesem Sinne sollte auch das Datenqualitätsmanagement als Risikomanagement zur Sicherung des Unternehmens verstanden werden. Hinzu kommt: Datenqualität als Risiko gesehen, lässt sich recht einfach in Geld umrechnen und somit monetär bewerten, denn die Datenqualität bestimmt die Prozessqualität. Falsche Daten in Entscheidungsprozessen bedeuten falsche Entscheidungen.

Die Kosten und der Zeitverlust durch falsche Entscheidungen lassen sich Fall für Fall recht präzise im Voraus berechnen. Falsche Daten in operativen Prozessen bedeuten höhere Prozesskosten und langsamere Abläufe. Denn falsche Daten halten Prozesse auf, verhindern Automation, bedeuten Eskalationsmanagement oder Stornos, Retouren bis hin zu Regressansprüchen, die an das Unternehmen gestellt werden. Alles in allem heißt das wieder Kosten und Zeitverlust, die pro Prozess ausgerechnet werden können. Es gilt eben: kein Prozess ohne Daten. Daten treiben und steuern die Prozesse.

Datenqualität über den gesamten Lebenszyklus

Wie betreibt man nun Datenqualitätsmanagement als Risikomanagement im täglichen Geschäft? Ein Lösungsansatz kommt aus dem Total Quality Management (TQM): Die Datenqualität wird demnach von Anfang an und über den gesamten Lebenszyklus der Daten sichergestellt. Datenqualitätsmanagement beginnt bei der Erfassung der Daten und endet erst mit dem Löschen von Daten - ein konsequentes Konzept, wie es beispielsweise Uniserv mit seinem Customer Data Hub im Rahmen des Data Managements speziell für die Domäne der Kunden- und Interessentendaten propagiert. Schauen wir uns dazu die Datenerfassung etwas genauer an.

Unternehmen,MAnagemenr,Datenqualität

© Hersteller

Das Total Quality Management hat sich als Lösungsansatz zur Verbesserung der Datenqualität bewährt.

Daten fließen aus unterschiedlichen Quellen auf das Unternehmen zu und müssen erfasst werden: manuell durch Mitarbeiter, Partner, Kunden und andere oder automatisiert via Dokumentenaustausch (Scan- und Fax-Technologien), über elektronischen Datenaustausch (EDIFACT, SEPA), über Maschine-zu-Maschine- Kommunikation (M2M) oder heute natürlich auch über mobile Geräte.

Eine Datenerfassung wird in der Regel durch einen Prozess angestoßen oder auch umgekehrt: Ein Ereignis schafft Daten und stößt einen Prozess an. Hier sehen wir noch einmal sehr deutlich die Verbindung zwischen Daten und Prozessen.

Im Augenblick der Datenerfassung wird sofort ("in Echtzeit") eine Prüfung der Daten auf Vollständigkeit, Korrektheit mund Redundanz vorgenommen. Das geschieht mittels Datenqualitäts-Services. Das sind zum einen Services zur (Customer) Identity Resolution. So lässt sich sicherstellen, dass ein neuer Datensatz dem richtigen Unternehmensstammdatensatz zugeordnet wird. Und man vermeidet beispielsweise Dubletten im Datenbestand. Denn Identitätsattribute eines Kunden können aufgrund von Übertragungs-, Schreibund Transskriptionsfehlern voneinander abweichen. Hier gilt es, Ähnlichkeiten zu finden und dann entsprechende Zuordnungen vorzunehmen.

Eine andere Gruppe von Datenqualitäts-Services sind Validierungs-Services. Das sind Regeln, die beschreiben, wie ein bestimmter Datensatz auszusehen hat. Hier werden die Muss- und Kann- Felder auf ihren Füllgrad geprüft, Datentypen, Wertebereiche, Rechtschreibung und Grammatik untersucht sowie Beziehungen zwischen Attributen und Datensätzen validiert.

Eine weitere Gruppe von Datenqualitäts-Services gleichen die Daten gegen spezielle Wissensbasen ab. Hier geht es darum, im Rahmen eines Matchings sicherzustellen, dass beispielsweise auf internationalem Niveau bestimmte Landesspezifika Berücksichtigung finden, bestimmte Standards zum Beispiel in der Adressierung eingehalten werden oder auch unterschiedliche Zeichensätze verarbeitet werden können.

Die räumliche Komponente

Darüber hinaus werden gerade und vor allem im Zeitalter von Big Data Geocodierungs- Services als weitere Facette von Datenqualitätsservices immer wichtiger. Geocodierung bedeutet die Adressbewertung in lokalen Märkten, sprich: Kunden lokalisieren und neue Potenziale erschließen. Das funktioniert folgendermaßen:

  1. Geocodierung des Datenbestandes: Jede Adresse erhält eine Raumkoordinate (x-y-Koordinate).
  2. Fehlerhafte Adressen oder Ortsangaben werden selektiert und mittels Datenbereinigungs-Service validiert.
  3. Jeder Adresse kann jetzt zusätzlich eine eindeutige räumliche Raster-ID zugeordnet werden, die eine Vielzahl weiterer Attribute beispielsweise zur Soziodemografie, Kaufkraft, Produktaffinität oder zum Lifestyle liefert. In diesem speziellen Fall sprechen wir dann von einer Datenanreicherung.

Geocodierung ergänzt also ganz im Sinne der eingangs zitierten Risikovorsorge das traditionelle Datenqualitätsmanagement: Sie wirkt quasi wie ein Profiling, identifiziert Fehler in Adressdaten und bereinigt sie. Gleichzeitig erfolgt eine Anreicherung der Daten, womit sich die Daten wieder für weitere Anwendungen nutzen lassen, wie beispielsweise Clusterbildungen zur Potenzialanalyse.

Dies alles kann bereits bei der Datenerfassung in Echtzeit erfolgen. Neuen Kunden oder Interessenten werden im Hintergrund automatisch die jeweils aktuellen Geo-Informationen "on the fly" zugeordnet. Gleiches gilt für Adressänderungen, die sich aufgrund von Umzügen ergeben.

Beim Aufbau von Datenbanken und bei der Migration von Datenbeständen in Data-Warehouse-Projekten ist es notwendig, schon vor dem eigentlichen Ladeprozess der Daten die entsprechenden Geo-Informationen zuzuordnen. Insofern können Datenqualitäts-Services sowohl mittels On-Premise-Software als auch mittels Software as a Service als Cloud-Lösung angeboten und konsumiert werden. Das nennt sich dann Data

Quality on Demand oder Data Quality as a Service (DQaaS). Auch eine hybride Nutzung, also sowohl on Premise als auch on Demand, bietet sich an.

Ergebnis: Eine konstant hohe Datenqualität

Datensätze, die aufgrund der Qualitätssicherung fehlerhaft sind und nicht automatisch bereinigt werden können, lassen sich jetzt im Sinne eines geschlossenen Regelkreises in eine Zwischendatenbank schreiben, eine Fehlermeldung geht an die Quelle der Datenerfassung. Dort wird ein Eskalationsmanagement ausgelöst mit dem Ziel, den Fehler zu bereinigen. Das bedeutet in der Regel einen manuellen Eingriff durch den am Prozessbeteiligten, der die notwendige Expertise zur Korrektur hat.

Ist der Datensatz bereinigt, kann er in den Datenbestand übernommen und im Prozess verwendet werden. In der Zwischendatenbank wird er dann entsprechend markiert. Ein Data Quality Dashboard (oder auch ein einfacher Bericht) gibt Auskunft über die Leistung dieses geschlossenen Regelkreises zum Datenqualitätsmanagement. Somit hat man schließlich auch das notwendige Performance Management, um den Regelkreis kontinuierlich zu verbessern, wie es ein TQM erfordert.

Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau. Das stellt gegenüber dem traditionellen Ansatz, bei dem die Datenqualität über die Zeit einer Sägezahnkurve folgte, einen deutlichen Fortschritt dar.

Natürlich muss ein solches Datenqualitätsmanagement per TQM auch durch die Organisation unterstützt werden. Bewährt hat sich hier die Einrichtung eines Kompetenzzentrums für Datenqualität, das die koordinierende Stelle im Unternehmen darstellt. Vielfach ist ein solches Kompetenzzentrum dem entsprechenden Kompetenzzentrum für das Stammdatenmanagement angegliedert.

Das Kompetenzzentrum arbeitet mit den Prozessverantwortlichen eng zusammen, denn die Expertise der an den Prozessen Beteiligten ist notwendig, um im Rahmen von Eskalationsmanagement fehlerhafte Datensätze zu korrigieren. Man bezeichnet diese Mitarbeiter meist als "Data Stewards". Hier sehen wir noch einmal deutlich, dass der volle Einsatz aller Mitarbeiter im Datenqualitätsmanagement trotz aller fortgeschrittenen Technologien unabdingbar ist.

Das aber geht in der Regel nur, wenn Datenqualität auch Chefsache ist. Ohne einen "Sponsor" im Vorstand oder in der Geschäftsleitung bekommt man weder Budget noch die Motivation der Mitarbeiter, aber viel Ärger im täglichen Geschäft mit Fehlentscheidungen, abgebrochenen Transaktionen und fehlgeleiteten Prozessen.

Fazit

Kein Prozess ohne Daten - Datenqualität bestimmt die Prozessqualität. Daher brauchen Unternehmen ein professionelles Datenqualitätsmanagement, denn die richtige Datenqualität bedeutet einen monetär bewertbaren Vorteil. Ein Datenqualitätsmanagement sollte daher wie ein Risikomanagement angegangen werden und mit Identity Resolution, Validierung, Wissensbasen und Geocodierung die zentralen Datenqualitätsservices enthalten.

Bewährt hat sich der Ansatz über Total Quality Management: Datenqualität wird gleich bei der Datenerfassung in die Prozesse integriert und während des gesamten Lebenszyklus der Daten sichergestellt. Ein geschlossener Regelkreis zum Datenqualitätsmanagement bringt hier die Lösung. Ein entsprechendes Kompetenzzentrum sollte die koordinierende Stelle für Datenqualität im Unternehmen sein, idealerweise unter der Schirmherrschaft der Geschäftsleitung.

Mehr zum Thema

So funktioniert Avira im Unternehmen
Sicherheit

Antivirus-Spezialist Avira bietet seine Sicherheitslösungen auch für Unternehmen an. Spezielle Erweiterungen erleichtern die zentrale…
IT-Sicherheitsgesetz für Unternehmen
IT-Sicherheit

Mit dem neuen IT-Sicherheitsgesetz hat die Politik auf zunehmende Vernetzung kritischer Infrastrukturen reagiert.
Apps und TIpps für Antivirus, Antidiebstahl: Wir verraten, wie Sie Ihr Smartphone oder Tablet sichern können.
IT-Sicherheit

Nur mehrschichtige Verteidigungsstrategie bewahren Unternehmen vor riskanten und teuren Distributed-Denial-of-Service-Angriffen.
Renovierung im Rechenzentrum
IT-Infrastruktur

Die Modernisierung eines Rechenzentrums ist in der Regel ein kostenintensives Großprojekt, bei dem Planung und Koordination ebenso wichtig sind wie…
Sicherheit und Freiheit ausbalancieren
IT-Sicherheit

IT-Sicherheitsexperten, die schützen und helfen und nicht blockieren, erschaffen ein Sicherheitsnetzwerk das Freiheiten lässt und trotzdem sicher…