Große Datenmengen bewältigen

Big Data - Big Chance

Wachsende Datenmengen sind für Unternehmen Segen und Fluch zugleich: Fluch, wenn die Datenberge undurchdringbar werden, Segen, wenn IT- und Fachabteilungen in der Lage sind, Informationen zu gewinnen, die die Wettbewerbsfähigkeit des Unternehmens steigern.

Big Data - Big Chance

© Max Griboedov - shutterstock.de

Big Data - Big Chance

Big Data ist derzeit eines der Hauptthemen, die die IT-Branche beherrschen. Doch woher kommt eigentlich die riesige Datenflut? Das Datenaufkommen steigt kontinuierlich durch die zunehmende Verbreitung von Smartphones, Tablets und sozialen Netzwerken sowie dem stetigen Anstieg digitaler Geschäfts- und Kommunikationsprozesse.

Autor: Peter Knapp - Interxion Deutschland GmbH

© Hersteller / Archiv

Der Autor: Peter Knapp - Geschäftsführer der Interxion Deutschland GmbH

Zum anderen resultieren die wachsenden Datenmengen auch aus Quellen, die zuvor nur wenig in interne Unternehmensnetzwerke eingebunden waren, wie Maschinen aus der industriellen Produktion. Allein eine Flugzeugturbine beispielsweise erzeugt pro Stunde 20 Terabyte an Daten, die zu Auswertungszwecken genutzt werden können. All diese zusätzlichen Informationen vereinen sich zu einem enormen Datenvolumen, mit denen Unternehmen umgehen müssen, was IT-Entscheider vor große Herausforderungen stellt, ihnen aber auch neue Möglichkeiten bietet.

Denn mit den Erkenntnissen und Informationen, die aus diesen Daten gewonnen werden, eröffnet sich Unternehmen großes Potenzial: Big Data ermöglicht es, Daten aus unterschiedlichsten Quellen zu sammeln und aufzubereiten, um effiziente, valide und zukunftsbezogene Entscheidungen zu treffen. Die Einschätzung, ob die Herausforderungen oder die Möglichkeiten von Big Data überwiegen, variiert jedoch stark, hauptsächlich in Abhängigkeit zur Größe des Unternehmens.

Mehr Herausforderung als Chance

So erklären im Rahmen der Studie "Big Data - Jenseits des Hypes" 79 Prozent der befragten Unternehmen mit 501 bis 1000 Mitarbeitern, dass sie Big Data eher als Herausforderung und weniger als Chance wahrnehmen. Bei Unternehmen mit 3000 und mehr Mitarbeitern sind dies lediglich 55 Prozent.

Für die Studie hat das Marktforschungsunternehmen Vanson Bourne 750 IT-Entscheidungsträger in elf europäischen Ländern interviewt. Ziel war es, nicht nur einen Status Quo des Umgangs mit Big Data abzubilden, sondern auch die Hintergründe zu verstehen.

Ein erstes wichtiges Ergebnis der Studie ist, dass - obwohl viel von Big Data die Rede ist - bislang vergleichsweise wenige Firmen das Thema in ihre Prozesse integriert haben: Nur jedes vierte Unternehmen in Europa hat aktuell ein Geschäftsmodell entwickelt und umgesetzt, das Big Data explizit berücksichtigt. Dennoch sind wachsende Datenmengen und der Umgang damit für insgesamt 81 Prozent insofern ein Thema, als dass sie über Lösungen nachdenken (40 Prozent) oder dies beabsichtigen (16 Prozent).

Fehlende Zeit und strategische Weitsicht

Damit Unternehmen erfolgreiche Big-Data-Strategien entwickeln können, müssen sie eine Reihe kultureller, organisatorischer und technologischer Aspekte koordinieren. Dies erfordert eine enge Ausrichtung der IT-Abteilung an den langfristigen Geschäftszielen - eine Herausforderung, an der aktuell jedes dritte europäische Unternehmen aus unterschiedlichen Gründen scheitert.

Hauptgrund ist der Zeitdruck, dem IT-Mitarbeiter ausgesetzt sind: 99 Prozent der Befragten gaben an, einen Großteil ihrer Zeit damit zu verbringen, dringende Aufgaben erledigen und Notfälle beheben zu müssen (durchschnittlich 37 Prozent) und kurzfristige, reaktive Anforderungen zu erfüllen (80 Prozent), sodass ihnen kaum Zeit für langfristige, strategische Aufgaben bleibt.

Weitere Gründe sind gekürzte Budgets (69 Prozent) und fehlender Einblick in die Unternehmensziele (53 Prozent). Etwa ein Viertel der Befragten (24 Prozent) gab sogar an, dass ihre Abteilung über keinerlei Pläne verfügt, wie sie zum Erreichen der Geschäftsziele beitragen kann.

Deutschland als Vorreiter

Etwas anders stellt sich die Situation in deutschen Unternehmen dar: Hier ist ein Bewusstsein dafür vorhanden, dass IT-Abteilungen in die Geschäftsziele eingebunden werden müssen, um Big-Data-Strategien zu entwickeln. Daher schätzen es auch nur 15 Prozent der befragten deutschen IT-Entscheider als schwierig ein, langfristige Pläne zu verfolgen.

Weitere Hürden auf dem Weg zu einer zukunftsweisenden Big-Data-Stragie sind die notwendigen CAPEX-Investitionen (33 Prozent), fehlende Speicherkapazitäten (32 Prozent) und mangelndes Know-how (32 Prozent). Die größten technischen Herausforderungen stellen Analyse (55 Prozent), Speicherung (53 Prozent) und Netzwerk (48 Prozent) dar. Diese Probleme lassen sich durch die Auslagerung der Daten in ein gut angebundenes Rechenzentrum lösen - eine Einschätzung, die jedes vierte befragte deutsche Unternehmen teilt.

Big Data im Rechenzentrum

Carrier-neutrale Rechenzentren können den Herausforderungen von Big Data gerecht werden. Sie ermöglichen eine effiziente Handhabung der Informationen. Denn die Verarbeitung großer Datenmengen, vor allem in Echtzeit, stellt große Voraussetzungen an die Rechenzentrumsinfrastruktur. Essenziell ist vor allem geringe Latenz, denn je länger die Verzögerungszeit beim Zugriff ist, desto länger benötigt die Datenauswertung, beziehungsweise die effektive Nutzung von dezentralen Lösungen.

In Carrier-neutralen Rechenzentren können direkte Verbindungen (Crossconnects) via Glasfaserverbindung zwischen der datenproduzierenden und der auswertenden Stelle etabliert werden. Dies reduziert die Latenz auf ein Minimum.

Ein weiterer Vorteil liegt in der ausgeprägten physischen Sicherheit im Rechenzentrum. Durch moderne Methoden der Zutrittskontrolle und internen Überwachung sind auch sensible Datensätze wie Personendaten vor direktem Zugriff durch unberechtigte Personen geschützt. Vor allem jedoch stellt Big Data hohe Ansprüche an die Leistungsfähigkeit, Skalierbarkeit und Ausfallsicherheit und die damit einhergehende Prävention von Datenverlusten.

Ein weiterer zentraler Aspekt ist die Anbindung an die Netzbetreiber, um die erzeugten Daten schnell und kosteneffizient verteilen zu können. Nur die Auswahl zahlreicher solcher Netzbetreiber kann letztlich garantieren, dass jederzeit der optimale Dienstanbieter mit dem besten Preis-Leistungs-Verhältnis zur Verfügung steht.

Auch die Verfügbarkeit von Internet-Service-Providern (ISPs) und Content Distribution Networks sowie Internetaustauschknoten ist essenziell, damit Big Data nicht zum Daten- oder Kostengrab wird.

Eine Chance fu?r mehr Effizienz

Wichtig sind vor allem zwei Faktoren: Netzwerkanbindung und Skalierbarkeit. Als essenzieller Bestandteil für den externen Datenaustausch sollte die Netzwerkanbindung redundant aufgebaut sein. Optimal ist eine zusätzliche Anbindung, die durch einen zweiten Netzbetreiber mit einer alternativen Wegeführung der Kabel oder auf drahtlosen Übertragungswegen, wie Richtfunk oder Satellit, realisiert wird.

Da eine Organisation nie genau planen und somit wissen kann, wann eine Expansion der IT- und Telekommunikationssysteme eintreten wird, ist es unerlässlich, dass das vorhandene Rechenzentrum skalierbar ist und nicht von einem Tag auf den anderen an seine Kapazitätsgrenzen stößt.

Gelingt es Unternehmen, mithilfe von Rechenzentrumsdienstleistern die Herausforderungen von Big Data zu meistern, profitieren sie von zahlreichen Vorteilen: Unternehmen erwarten schnellere, effizientere Entscheidungsprozesse (57 Prozente), höhere Kundenzufriedenheit (54 Prozent), mehr Cross-Selling (47 Prozent), schnellere Markteinführung neuer Produkte und Dienstleistungen (46 Prozent) und mehr Innovationskraft (46 Prozent).

Diese Vorteile spiegeln sich teilweise auch in den Anwendungen wider, bei denen Big-Data-Lösungen besonders dringend benötigt werden: Die Befragten antworteten hier am häufigsten mit Kundenmanagement (41 Prozent), E-Commerce (35 Prozent) und finanziellen Transaktionen (34 Prozent).

Fazit

In Zukunft werden Unternehmen verstärkt mit riesigen Datenmengen umgehen müssen. Denn allein aufgrund des Wettbewerbsdrucks steigen die Anforderungen an die Auswertung von Big Data zur eigenen Positionierung im Wettbewerb.

Die Studie "Big Data - Jenseits des Hypes" zeigt, dass die meisten Unternehmen die Chancen und Schwierigkeiten von Big Data realistisch einschätzen. Was meist fehlt, ist die Konsequenz, ihren IT-Teams den Freiraum zu verschaffen, um die Herausforderungen aus dem Weg zu räumen, die sie davon abhalten, dieses Potenzial auszuschöpfen. Daher eröffnet die Auslagerung von Daten in Colocation-Rechenzentren Unternehmen eine erfolgversprechende Möglichkeit, Big Data gewinnbringend zu nutzen.

Checkliste: Sieben Erfolgsfaktoren für Big Data

Fachbereiche, die Big-Data-Projekte realisieren, müssen eine Reihe von Rahmenbedingungen berücksichtigen. Dazu zählen organisatorische und technologische Anforderungen. Der Business-Intelligence-Spezialist Information Builders benennt sieben Einflussgrößen für die erfolgreiche Umsetzung.

  • Genaue Big-Data-Anforderungen ermitteln

Ein Unternehmen muss aufspüren, wo es den größten Nutzen durch Big-Data-Einsatzszenarien gibt: meist dort, wo die Analyse mit herkömmlichen Mitteln nicht mehr ausreicht. Das kann unternehmensweit geschehen, etwa bei der Umsatzanalyse von Filialen für eine bessere Personalplanung. In der Regel haben aber auch Fachabteilungen einen klaren Bedarf. Die Logistik sucht nach Möglichkeiten, mit denen sie Modelle zur Optimierung der Tourenplanung testen kann, und in der Fertigung steht die Aufgabe an, durch ein erweitertes ganzheitliches Mess- und Prozessdatenmanagement die Workflows neu zu gestalten.

  • Nachprüfbare Ziele für Big-Data-Projekte festlegen

Big-Data-Projekte müssen sich konkrete Ziele setzen, beispielsweise die Kundenabwanderungsrate senken, die Kundenbindung erhöhen, neue Umsatzquellen, etwa im Web oder über mobile Kanäle, erschließen oder die Qualität im Kundenservice verbessern. In allen Fällen müssen die Verantwortlichen quantitative oder nachprüfbare qualitative Ziele festlegen, deren Erreichung durch Soll-Ist-Vergleiche überprüft wird.

  • Die richtigen internen Datenquellen aufspüren

Eines der Ziele von Big Data ist es, bislang nicht oder nur schwer zugängliche, große Mengen strukturierter und wenig strukturierter Geschäftsdaten aufzuspüren, um daraus neue Erkenntnisse für aktuelle Entscheidungen zu gewinnen. Dazu gehört auch festzustellen, wie und in welcher Form die IT auf die Daten zugreifen soll.

  • Informationen aus sozialen Netzwerken mit einbeziehen

Im Marketing, Vertrieb und Kundensupport ergibt sich eine Vielzahl von Möglichkeiten, um etwa die Kommentare und Meinungen zu einem Produktlaunch in sozialen Netzwerken zu erfassen und auszuwerten. Mit zusätzlichen Funktionen, beispielsweise für die Textanalyse, können Unternehmen sowohl strukturierte als auch unstrukturierte Daten in Blogs, Facebook oder Twitter durchsuchen und die ermittelten Informationen mit Daten aus CRM-Systemen oder anderen Unternehmensapplikationen für weitere Analysen einsetzen.

  • Fachbereiche und IT müssen sich effizient vernetzen

Bei allen Big-Data-Projekten müssen sich Fachbereiche und IT von Anfang an über Ziele und Verantwortlichkeiten abstimmen. Die frühzeitige Unterstützung durch die Geschäftsführung stellt darüber hinaus sicher, dass es nicht um ein nachrangiges Projekt, sondern um eine Aktion mit klarem Auftrag und nachprüfbaren Zielen geht.

  • Vorhandene BI-Plattformen als Sprungbrett nutzen

Den technischen Unterbau für Big Data stellen die in einem Unternehmen bereits vorhandenen BIPlattformen sowie neuartige Analyse- und Visualisierungs- Tools bereit. Bauen IT und Fachabteilungen auf dem Vorhandenen auf, wird BI zum Katalysator für Big Data. Eine hohe Effizienz erzielen Unternehmen, wenn sie eine durchgängige Lösung für BI und Big Data einsetzen.

  • Regelmäßig die Projektergebnisse überprüfen

Eine wichtige Rolle für den nachhaltigen Erfolg spielt die kontinuierliche Überprüfung der Projektresultate und die Weiterentwicklung. Wie alle anderen Anwendungen auch unterliegt Big Data den unterschiedlichsten externen Einflussfaktoren und muss daher permanent mit einem Soll-Ist-Vergleich überprüft und angepasst werden.

Mehr zum Thema

Big Data,CeBIT,Datability
Trend-Thema

Das Thema Big Data schickt sich an, in den produktiven Betrieb überzugehen. Doch wer Daten für die Entwicklung seines Geschäfts nutzen will, muss…
Big Data
Big Data

Das Jahr 2013 hat für das Thema Big Data den Durchbruch gebracht: Doch wie geht es weiter? Welche Entwicklungen sind im Bereich Big Data 2014 zu…
Fit für Big Data?
Business Analytics

Die Auswertung von Big Data ist längst kein Geheimtipp mehr oder nur etwas für IT-Spezialisten. Inzwischen beschäftigt sich auch das Management mit…
cloud computing
Cloud Computing

Ein Cloud-basierter Connectivity Management Service hilft Unternehmen bei der Analyse von Big Data.
image.jpg
Big Data Analytics

Big Data Analytics hat Geschäftsprozesse in vielen Bereichen effizienter gemacht. Voraussetung ist, dass die Daten vollständig, konsistent und…