Big Data
Was ist Big Data?
Big Data, im Deutschen als Massendaten bezeichnet, meint eine sehr große Datenmenge. Weil die Datenmenge sehr komplex ist, kann sie von herkömmlicher Soft- und Hardware nicht mehr verarbeitet werden. Big Data bezieht sich jedoch neben den Daten an sich auch auf deren Auswertung und Nutzung. Ziel ist es, Muster und Zusammenhänge ausfindig zu machen, die die Daten in den passenden Kontext stellen.
Welche Dimensionen umfasst Big Data?
Big Data umfasst insgesamt fünf Dimensionen:
Befasst sich mit der Bandbreite der Datenquellen sowie der Datentypen. Es geht um die Vielfalt der verschiedenen Strukturen – also strukturiert, teilweise strukturiert und unstrukturiert. Besonders unstrukturierte Daten wie Bilder oder Texte lassen sich mit vielen Datenbanken kaum auswerten. Big Data ermöglicht es dank Machine Learning - ein Teilbereich der künstlichen Intelligenz - diese zu analysieren.
Beschreibt das Volumen der teils riesigen Datenmengen. Von Jahr zu Jahr werden die Datenmengen immer größer.
Beschäftigt sich damit, wie schnell Datenmengen entstehen und transferiert werden. Die Geschwindigkeit nimmt immer mehr zu, was für die Verarbeitung eine Herausforderung darstellt. Besonders die Echtzeitverarbeitung ist für viele Unternehmen heute wichtig und kann einen entscheidenden Wettbewerbsvorteil darstellen.
Meint den Mehrwert, der durch die Daten bzw. die miteinander verknüpften Datenmengen entsteht.
Behandelt die Qualität der zu verarbeitenden Daten. Weil bei Big Data Daten aus zahlreichen Quellen in unterschiedlicher Qualität zusammenkommen, müssen diese teils aufwändig nachbearbeitet werden.
Während die ersten drei Dimensionen schon lange im Zusammenhang mit Big Data auftauchen, sind die vierte und fünfte Dimension erst vor kurzer Zeit hinzugestoßen.
Woher stammen die Daten für Big Data?
Datenquellen für Big Data gibt es zahlreiche. Typische Beispiele sind klassische Datenbanken wie Software-Systeme aber auch Smart Homes, Smartphones und Smartwatches oder Kundenkarten. Inhalts- und Metadaten, Transaktionsdaten sowie Kundenverhalten bilden die Grundlage.
Worum geht es bei Big Data Analytics?
Die Auswertung von Big Data wird als Big Data Analytics bezeichnet. Es handelt sich dabei um spezielle Verfahren, die sich für die Analyse von sehr großen Datenmengen eignen. Indem diese Datenmengen analysiert werden, kann auf umfangreichere Informationen zugegriffen werden, was wiederum Entscheidungen erleichtert.
Massig Daten einfach auswerten
Zu viele Daten für sinnvolle Analysen? Mit Microsoft Power BI werten Sie auch große Datenmengen per Mausklick aus. Für besser Entscheidungsgrundlagen in Windeseile!
Wie entsteht Big Data?
Letztendlich ist die Digitalisierung beinahe aller Lebensbereiche verantwortlich für die Entstehung immer größerer Datenmengen. Mobiles Internet, Internet of Things, Social Media, Cloud-Computing und Co. sorgen dafür, dass wir immer mehr Daten hinterlassen.
Was sind die Vorteile von Big Data?
-
Wettbewerbsvorteil
Unternehmen, die auf Big Data setzen, kennen Ihre Interessenten und Kunden besser.
-
Passendere Entscheidungen
Wer mehr Informationen und Daten als Basis hat, findet umfassendere Antworten für treffsichere Entscheidungen.
-
Optimierte Produkte
Die Neu- oder Weiterentwicklung von Produkten erfolgt zielgerichteter, wenn sie auf einer Vielzahl von Daten basiert.
-
Effizientes Arbeiten
Sind Entscheidungen fundiert, sinkt das Risiko, einen falschen Weg einzuschlagen. Das spart Zeit und reduziert den Aufwand.
-
Zukunft sichern
Umfassende Datenauswertungen sorgen dafür, dass Trends frühzeitig erkannt und in Produktangebote integriert werden können.
-
Geschäftliche Risiken reduzieren
Big Data ermöglicht eine besonders umfangreiche Auswertung von Daten und damit die Anzeige von Risiken zu einem frühen Zeitpunkt.
Wie geht man mit Big Data um?
Standard-Software ist ungeeignet, um mit unstrukturierten Daten und komplexen Datenströme umzugehen. Stattdessen kommen spezielle Frameworks zum Einsatz. Software muss hierfür möglichst viele Datensätze auf einen Schwung verarbeiten und importieren können. Wichtig ist außerdem, dass die Datenmengen möglichst schnell, am besten in Echtzeit, verfügbar sind.
Wie funktioniert Big Data?
Big Data funktioniert als eine Struktur aus strukturierten, halbstrukturierten und unstrukturierten Daten. Um diese abzubilden, durchlaufen Unternehmen meist fünf Schritte:
Zunächst wird festgelegt, wie die Erfassung und Speicherung von Daten ablaufen und welches Ziel damit erreicht werden soll.
Nun geht es darum, die zahlreichen Daten aus unterschiedlichen Quellen und Anwendungen zusammenzuführen. Dabei ist darauf zu achten, dass sie in einer verarbeitbaren Form vorliegen. Daten müssen nun empfangen, verarbeitet und in die gewünschte Form formatiert werden.
Um auf Big Data zugreifen zu können, sind moderne Computersysteme nötig. Die Verarbeitung ist sowohl in der Cloud als auch serverbasiert möglich. So wird ein Ort geschaffen, an dem alle betroffenen Daten in der gewünschten Form gespeichert werden.
Mittels der passenden Systeme ist es möglich, die gesamten Big Data-Bestände zu analysieren. Das ist nötig, um beispielsweise Kundenverhalten auszuwerten und die eigenen Tätigkeiten darauf abstimmen zu können. Hierfür wird oft auf Methoden des Data Mining oder künstliche Intelligenz zurückgegriffen.
Ist die Analyse abgeschlossen, steht eine umfassende Datenbasis zur Verfügung, auf deren Grundlage Entscheidungen getroffen werden können. Die Analyse von Big Data ermöglicht es Unternehmen also beispielsweise, Aktivitäten wie Kampagnen zielgerichteter umsetzen zu können.
Was sind Beispiele für die Anwendung von Big Data?
Wie ist die Geschichte von Big Data?
Der Begriff Big Data und der Umgang damit sind recht neu. Erste Anfänge gehen jedoch zurück in die 1960er und 1970er Jahre, als erste Rechenzentren eingerichtet wurden, um die steigende Anzahl an Daten verarbeiten zu können.
Ab etwa 2005 wurde immer ersichtlicher, dass die Datenmenge durch die Nutzung zahlreicher Online-Dienste enorm stieg. Es folgte die Entwicklung von Hadoop – ein Open-Source-Framework, das darauf ausgelegt ist, große Datensätze zu speichern und zu analysieren. Ebenfalls vermehrt in den Fokus rückte NoSQL, also Datenbanken, die einen nicht-relationalen Ansatz verfolgen. Beide Varianten vereinfachen es, große Datenmengen zu verarbeiten, und reduzieren gleichzeitig Speicherkosten.
Heute gehört Big Data zum Alltag dazu, die Entwicklung ist bereits fest implementiert. Wirft man jedoch einen Blick auf die Nutzung, wird sichtbar, dass wir hier erst am Anfang stehen. Besonders das Cloud-Computing ermöglicht es durch seine flexible Skalierbarkeit, Big Data noch intensiver zu nutzen.
Warum wird Big Data teils kritisch gesehen?
Die Verarbeitung von Massendaten bezieht sich in vielen Fällen auf personenbezogene Daten, beispielsweise das Kommunikations- oder Konsumverhalten. Kritische Stimmen sprechen in diesem Zusammenhang immer wieder das Thema Persönlichkeitsrechte an. Besonders wichtig ist daher, verantwortungsvoll mit Big Data umzugehen und auf eine transparente elektronische Datenverarbeitung zu setzen.
Wie erweitert Big Data Business Intelligence?
Business Intelligence-Lösungen sind darauf ausgelegt, (mehrfach) täglich Daten in überschaubarer Menge zu aktualisieren. Big Data hingegen ermöglicht es, große Datenmengen in Echtzeit zu aktualisieren und sie gleichzeitig zu verarbeiten. Außerdem ergänzt Big Data Business Intelligence um die Frage nach dem „Warum“. Schließlich werden durch die Erkenntnisse basierend auf einer großen Menge an Daten neue Zusammenhänge sichtbar und Optimierungspotenziale deutlicher.
Big Data effizient managen
Große Datenmengen bieten große Potenziale - zumindest, wenn sie sinnvoll verarbeitet sind. Möglich macht das ein Data Warehouse, denn es verbessert die Datenqualität dank zentralem Speicherort. Wie das geht? Verrät unser kostenfreies Whitepaper.
Beitrag teilen
Autor