IT-Strategien

Data-Governance-Strategie

Mit einer durchdachten Data-Governance-Strategie lassen sich Geschäftsdaten optimal nutzen und kontinuierlich optimieren.

Data-Governance-Strategie

© tkemot - shutterstock.de

Data-Governance-Strategie

Wir sind umgeben von einer unüberschaubaren Menge an digitalen Informationen. Was pro Sekunde durch unsere Glasfaser-, Telefon-, Strom- und Mobilfunknetze fließt, ist kaum abzuschätzen, geschweige denn exakt zu messen. Wir greifen beruflich und privat ständig auf diese Datenströme zu und reichern sie mit immer neuen Informationen an.

Überspitzt könnte man sagen, der Satz "Geld regiert die Welt" sei Geschichte. Heute sind es zum großen Teil Informationen, die die Geschäftsprozesse antreiben. Entsprechend müssen Informationen im Unternehmen behandelt werden: gleichermaßen als betriebswirtschaftliches Vermögen, als Ressource und als Betriebsmittel mit einer bestimmten Lebensdauer.

Aus dieser Erkenntnis ergibt sich die Anforderung, dass Informationen über ihren gesamten Lebenszyklus hinweg gemanagt werden müssen. Dies soll die Disziplin Informationsmanagement leisten. Aus Unternehmenssicht gilt es aber, zwei Dinge im Blick zu haben: die Relevanz der Information und die Vertrauenswürdigkeit. Nur wenn diese beiden Kriterien erfüllt sind und über die Ausprägung ein einheitliches Verständnis im Unternehmen besteht, besitzen Informationen für die Business-Prozesse auch tatsächlich einen Wert - und nur dann erhöhen sie die Wettbewerbskraft.

Aufgaben des Informationsmanagements

Im Informationsmanagement-Umfeld werden Strategien zur Speicherung, Analyse und Bereitstellung der unternehmensrelevanten Datenmengen aktuell unter dem Schlagwort "Big Data" zusammengefasst. Die Fähigkeit, große Mengen von Daten in analytischen Datenhaltungssystemen verarbeiten zu können, garantiert aber noch nicht deren Vertrauenswürdigkeit. Das Informationsmanagement hat hierfür eine Reihe weiterer Aufgaben zu erfüllen:

  • Definition der Daten: Unternehmensweit muss für eine eindeutige und konsistente Terminologie bezüglich der Geschäftsobjekte gesorgt werden. Was ist beispielsweise unter Umsatz zu verstehen, welche Kennzahlen existieren, was ist ein Kunde, was ein Partner? Eine gemeinsame Aufgabe von Fachabteilungen und IT.
  • Modellierung der Daten: Die Beziehungen (Semantik) zwischen den Objekten müssen eindeutig beschrieben werden.
  • Meta- und Stammdaten-Management: Ein einheitliches Management bedeutet hier die zentrale, nicht redundante Verwaltung von Stammdaten sowie deren beschreibende Metadaten in einem Repository. Hinzu kommen Abbildungen des gesamten Lebenszyklus der Daten für eine vollständige Nachvollziehbarkeit und Transparenz. Dies fordert die Compliance. Ein Thema, das sich durch alle Bereiche des Meta- und Stammdaten-Managements zieht, ist die Datenqualität.
  • Datenqualitäts-Management: Daten müssen unternehmens- und nutzerspezifischen Kriterien der Relevanz, Korrektheit und Konsistenz genügen. Anstatt auf Insellösungen zu setzen und mit nachträglichen Korrekturen auszubessern, sollte Datenqualität von Anfang an in alle Prozesse integriert sein, bis hin zu einem durchgängigen Monitoring über den gesamten Nutzungszeitraum der Daten. Es empfiehlt sich ein Total-Data-Quality-Ansatz
  • Datenintegration: Synchronisierung und Bereitstellung der Daten quer über alle Applikationen hinweg.
  • Datensicherheit und -schutz.

Kernaufgaben sind Datenintegration und Datenqualität. Die entscheidende Grundlage eines erfolgreichen Informationsmanagements auf Business-Ebene ist aber die sogenannte Data Governance: "Information Management braucht eine geeignete Organisation mit klaren Rollen und Verantwortlichkeiten", so formuliert es der Analyst Dr. Wolfgang Martin.

Prozesse, Policies und Plattformen

"Es braucht die richtigen und rigorosen Prozesse und Policies, und nicht zuletzt braucht es die richtige Technologie und die passende Plattform. Die Konsequenz ist die Erfüllung aller Anforderungen, die Compliance an die Daten stellt", ergänzt Dr. Martin.

Mittels einer solchen, in allen Schichten integrierten Data Governance lassen sich vertrauenswürdige Daten schaffen. Nur sie kommen als Fundament für Business-Entscheidungen und deren operative, taktische oder strategische Umsetzung in Frage. Dass sich diese Ansicht in Unternehmen immer mehr durchsetzt, belegen die Marktbefragungen namhafter Beratungshäuser wie Gartner, Deloitte oder zuletzt Forrester.

Bei der Umsetzung dieser Erkenntnisse besteht aber noch ein großer Handlungsbedarf. Forrester hat hier für 2011/12 ermittelt, dass lediglich bei 20 Prozent der Unternehmen Data Governance schon einen hohen Reifegrad erreicht hat. Beim Aufbau einer Data Governance sind also fu?r die beschriebenen Aufgaben des Informationsmanagements die Prozesse, Richtlinien und Ziele zu formulieren und mittels entsprechender Services unternehmensweit umzusetzen.

"So wie Geschäftsprozesse mittels Kennzahlen gesteuert werden, werden auch die Governance-Prozesse des Informationsmanagements mittels Kennzahlen auf operativer, taktischer und strategischer Ebene gesteuert. Das ist ein Schlüssel zu einem professionellen und erfolgreich gelebten Information Management. Das Ergebnis ist ein ,Total Quality Management'. Das heißt, die Qualität wird kontinuierlich überwacht und gesteuert. So kann beispielsweise auch im operativen Betrieb sichergestellt werden, dass die Regeln und Policies von Compliance-Anforderungen erfüllt werden", fasst Dr. Martin zusammen.

Technische Realisierung

Der zweite Schlüssel liegt in den Händen der IT. Der folgende Abschnitt befasst sich daher mit der technologischen Basis für eine effiziente Information Governance auf Grundlage von Data Management - einer integrierten, Serviceorientierten Plattform. Der Kern einer solchen Plattform ist ein Repository, das alle Elemente des Informationsmanagements abbildet und eine zentrale Verwaltung von Metadaten wie Datei und Datenbank-Definitionen oder Transformationsregeln erlaubt.

 

Dr. Wolfgang Martin - Analystenhauses Wolfgang Martin Team

© Hersteller / Archiv

Information Management braucht eine geeignete Organisation mit klaren Rollen und Verantwortlichkeiten." Dr. Wolfgang Martin - Gründer und Leiter des Analystenhauses Wolfgang Martin Team

Hierzu wird das Repository um ein Rules Management ergänzt, mit dem individuelle Geschäfts- oder Datenqualitätsregeln definiert werden. Ein solches Repository ist idealerweise aktiv. Das bedeutet, es werden nicht nur Informationen gespeichert und verwaltet, sondern die Komponenten der Plattform aktiv mit Informationen versorgt.

Sobald es also zu Änderungen bei Richtlinien, Regeln und Prozessen kommt, werden alle davon betroffenen Komponenten zeitnah und applikationsübergreifend angezeigt und so weit wie möglich auch automatisch angepasst. Damit erreicht man funktionsseitig die notwendige Änderungsgeschwindigkeit und Flexibilität. Um diese Anpassungen zu unterstützen, sollten Änderungen und Pflege auch nutzerorientiert erfolgen; Anpassungen müssen sich in einer einfach zu bedienenden Oberfläche Workflow-unterstützend einstellen (parametrieren) lassen.

Datenqualität im Fokus

Die Architektur der Plattform sollte zudem Service-orientiert sein (SOA), denn so lassen sich Information-Management-Funktionen in jeden betroffenen Prozess schnell und standardisiert integrieren und stehen sofort zur Nutzung bereit. Das sollte auch für die eigenen Funktionen des Nutzers oder Services von Dritten gelten - auch hierfür muss die Plattform offen sein.

Im Bereich Datenqualität vereint die Plattform Services für ganz unterschiedliche Prozesse, die den Data Quality Lifecycle in seiner Gesamtheit abdecken. Das Spektrum reicht von der Analyse des Datenbestands über Services zum Cleansing, zur Konsolidierung und Anreicherung über eine Firewall, die in Applikationen eine Datenverschmutzung beim Input in Echtzeit verhindert bis hin zu einem dauerhaften, lückenlosen Monitoring und eindeutigen Reporting.

Hinzu kommen umfangreiche Services zur Datenintegration. Für die Praxis heißt dies, dass Datenqualitäts-Services direkt und in Echtzeit in den Applikationen des Nutzers für valide Daten sorgen - ohne umfangreichen Integrationsaufwand und in der Benutzung smart und effizient. So ist es beispielsweise möglich,

  • neue Kundendaten bei der Übernahme in ein CRM-System direkt bei der Eingabe auf ihre Korrektheit zu überprüfen, so die Sicht auf den Kunden zu verbessern und neue Sales-Potenziale zu erschließen,
  • Systemkonsolidierungen vom Anfang bis zum Ende unter dem Blickwinkel der Datenqualität zu begleiten, beispielsweise bei Mergers & Acquisitions, und damit Kostenaufwände zu minimieren,
  • sowie Anforderungen der Compliance über einen Service in Echtzeit zu überwachen, um langfristig Haftungsschäden auszuschließen.

Die Service-orientierte Architektur optimiert zudem auch die Möglichkeiten, Dienste als SaaS (Software as a Service) verfügbar zu machen, und erhöht so die Flexibilität des Informationsmanagements. Denn die Services stehen damit - je nach Anforderungsszenario - sowohl on premise als auch in Form einer Cloud-Lösung zur Verfügung und können in einem hybriden Ansatz parallel genutzt werden.

"Der Vorteil einer solchen Lösung ist ein Data Quality Management als eine Total-Quality-Management-Lösung", sagt Dr. Wolfgang Martin. "Datenqualität wird kontinuierlich in die Datenintegrations- und Beschaffungsprozesse eingebaut, sodass ein Data Quality Service Level Agreement kontinuierlich überwacht und gesteuert werden kann."

Planen, leiten und koordinieren

 

Autor - Holger Stelz - Uniserv GmbH

© Archiv

Der Autor - Holger Stelz - Leiter Marketing & Geschäftsentwicklung bei der Uniserv GmbH

Neben diesen prozessualen und technischen Voraussetzungen müssen außerdem noch organisatorische Einheiten bestimmt und deren Verantwortlichkeiten festgelegt werden. Hier hat sich eine Struktur rund um ein Information-Management-Kompetenzzentrum bewährt.

Ein solches Kompetenzzentrum vereint laut Analyst Dr. Martin "Führung und Kontrolle der Information-Management-Strategie und der Information-Management-Methoden, -Standards, -Regeln und -Technologien. Es wird gemeinsam vom Business und von der IT aufgesetzt, betrieben und gelebt. Das Information-Management-Kompetenzzentrum plant, leitet und koordiniert Information-Management-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie."

Data Governance ist damit eine gemeinsame Aufgabe von Unternehmensführung, Fachabteilungen und IT, denn die verteilten Kenntnisse über Geschäftsprozesse und Anwendungssysteme müssen zusammengeführt werden. Wird Data Governance durch einen solchen Rahmen institutionell abgesichert und forciert, können alle Unternehmensprozesse mit qualitätsgesicherten Daten operieren und die Ressource Information wird optimal genutzt. Data Governance steigert damit nicht nur die Effizienz im täglichen Umgang mit Unternehmensdaten, sondern ermöglicht Wertschöpfung auf einer ganz neuen Ebene.

Mehr zum Thema

Wissenswertes über Big Data Hosting
Outsourcing

Die Datenmengen verdoppeln sich derzeit alle zwei Jahre. Diese Entwicklung stellt auch Service-Provider vor neue Herausforderungen. Mit einer rein…
Der Trend im Storage-Segment
IT-Strategien: Business Intelligence

Das Schlagwort von den "Big Data" geistert zur Zeit massiv durch die IT-Industrie. Den größten Widerhall findet der Trend im Storage-Segment - und…
Leistungslücke zwischen Prozessoren und Speichersystemen
Speichertechnologie

Mit der steigenden Datenflut und den Fortschritten auf Prozessorseite können klassische Datenspeicher nicht mehr mithalten. Abhilfe schaffen…
ARM Prozessoren
ARM-Prozessoren

Der Siegeszug der Smartphones und Tablets brachte einen Aufschwung für ARM-Prozessoren. Wir werfen einen Blick hinter die Kulissen der extrem…
Social Media
Facebook, Twitter & Co.

Die sozialen Netze sind ständig in Bewegung. Daher sind Sie auf eine gute Lösung angewiesen, um alle relevanten Ereignisse rund um Ihre Marke zu…