Bücherregal symbolisiert Glossar

YAVEON  »  Glossar  »

Big Data

Big Data

Was ist Big Data?

Big Data, im Deutschen als Massendaten bezeichnet, meint eine sehr große Datenmenge. Weil die Datenmenge sehr komplex ist, kann sie von herkömmlicher Soft- und Hardware nicht mehr verarbeitet werden. Big Data bezieht sich jedoch neben den Daten an sich auch auf deren Auswertung und Nutzung. Ziel ist es, Muster und Zusammenhänge ausfindig zu machen, die die Daten in den passenden Kontext stellen.

Welche Dimensionen umfasst Big Data?

Big Data umfasst insgesamt fünf Dimensionen:

Befasst sich mit der Bandbreite der Datenquellen sowie der Datentypen. Es geht um die Vielfalt der verschiedenen Strukturen – also strukturiert, teilweise strukturiert und unstrukturiert. Besonders unstrukturierte Daten wie Bilder oder Texte lassen sich mit vielen Datenbanken kaum auswerten. Big Data ermöglicht es dank Machine Learning - ein Teilbereich der künstlichen Intelligenz - diese zu analysieren.

Beschreibt das Volumen der teils riesigen Datenmengen. Von Jahr zu Jahr werden die Datenmengen immer größer.

Beschäftigt sich damit, wie schnell Datenmengen entstehen und transferiert werden. Die Geschwindigkeit nimmt immer mehr zu, was für die Verarbeitung eine Herausforderung darstellt. Besonders die Echtzeitverarbeitung ist für viele Unternehmen heute wichtig und kann einen entscheidenden Wettbewerbsvorteil darstellen.

Meint den Mehrwert, der durch die Daten bzw. die miteinander verknüpften Datenmengen entsteht.

Behandelt die Qualität der zu verarbeitenden Daten. Weil bei Big Data Daten aus zahlreichen Quellen in unterschiedlicher Qualität zusammenkommen, müssen diese teils aufwändig nachbearbeitet werden.

Während die ersten drei Dimensionen schon lange im Zusammenhang mit Big Data auftauchen, sind die vierte und fünfte Dimension erst vor kurzer Zeit hinzugestoßen.

Woher stammen die Daten für Big Data?

Datenquellen für Big Data gibt es zahlreiche. Typische Beispiele sind klassische Datenbanken wie Software-Systeme aber auch Smart Homes, Smartphones und Smartwatches oder Kundenkarten. Inhalts- und Metadaten, Transaktionsdaten sowie Kundenverhalten bilden die Grundlage.

Worum geht es bei Big Data Analytics?

Die Auswertung von Big Data wird als Big Data Analytics bezeichnet. Es handelt sich dabei um spezielle Verfahren, die sich für die Analyse von sehr großen Datenmengen eignen. Indem diese Datenmengen analysiert werden, kann auf umfangreichere Informationen zugegriffen werden, was wiederum Entscheidungen erleichtert.

Massig Daten einfach auswerten

Zu viele Daten für sinnvolle Analysen? Mit Microsoft Power BI werten Sie auch große Datenmengen per Mausklick aus. Für besser Entscheidungsgrundlagen in Windeseile!

Vorschaubild Power BI Whitepaper

Wie entsteht Big Data?

Letztendlich ist die Digitalisierung beinahe aller Lebensbereiche verantwortlich für die Entstehung immer größerer Datenmengen. Mobiles Internet, Internet of Things, Social Media, Cloud-Computing und Co. sorgen dafür, dass wir immer mehr Daten hinterlassen.

Was sind die Vorteile von Big Data?

  • Wettbewerbsvorteil

    Unternehmen, die auf Big Data setzen, kennen Ihre Interessenten und Kunden besser.

  • Passendere Entscheidungen

    Wer mehr Informationen und Daten als Basis hat, findet umfassendere Antworten für treffsichere Entscheidungen.

  • Optimierte Produkte

    Die Neu- oder Weiterentwicklung von Produkten erfolgt zielgerichteter, wenn sie auf einer Vielzahl von Daten basiert.

  • Effizientes Arbeiten

    Sind Entscheidungen fundiert, sinkt das Risiko, einen falschen Weg einzuschlagen. Das spart Zeit und reduziert den Aufwand.

  • Zukunft sichern

    Umfassende Datenauswertungen sorgen dafür, dass Trends frühzeitig erkannt und in Produktangebote integriert werden können.

  • Geschäftliche Risiken reduzieren

    Big Data ermöglicht eine besonders umfangreiche Auswertung von Daten und damit die Anzeige von Risiken zu einem frühen Zeitpunkt.

Wie geht man mit Big Data um?

Standard-Software ist ungeeignet, um mit unstrukturierten Daten und komplexen Datenströme umzugehen. Stattdessen kommen spezielle Frameworks zum Einsatz. Software muss hierfür möglichst viele Datensätze auf einen Schwung verarbeiten und importieren können. Wichtig ist außerdem, dass die Datenmengen möglichst schnell, am besten in Echtzeit, verfügbar sind.

Wie funktioniert Big Data?

Big Data funktioniert als eine Struktur aus strukturierten, halbstrukturierten und unstrukturierten Daten. Um diese abzubilden, durchlaufen Unternehmen meist fünf Schritte:

Zunächst wird festgelegt, wie die Erfassung und Speicherung von Daten ablaufen und welches Ziel damit erreicht werden soll.

Nun geht es darum, die zahlreichen Daten aus unterschiedlichen Quellen und Anwendungen zusammenzuführen. Dabei ist darauf zu achten, dass sie in einer verarbeitbaren Form vorliegen. Daten müssen nun empfangen, verarbeitet und in die gewünschte Form formatiert werden.

Um auf Big Data zugreifen zu können, sind moderne Computersysteme nötig. Die Verarbeitung ist sowohl in der Cloud als auch serverbasiert möglich. So wird ein Ort geschaffen, an dem alle betroffenen Daten in der gewünschten Form gespeichert werden.

Mittels der passenden Systeme ist es möglich, die gesamten Big Data-Bestände zu analysieren. Das ist nötig, um beispielsweise Kundenverhalten auszuwerten und die eigenen Tätigkeiten darauf abstimmen zu können. Hierfür wird oft auf Methoden des Data Mining oder künstliche Intelligenz zurückgegriffen.

Ist die Analyse abgeschlossen, steht eine umfassende Datenbasis zur Verfügung, auf deren Grundlage Entscheidungen getroffen werden können. Die Analyse von Big Data ermöglicht es Unternehmen also beispielsweise, Aktivitäten wie Kampagnen zielgerichteter umsetzen zu können.

Was sind Beispiele für die Anwendung von Big Data?

Shopping

„Kunden, die dieses Produkt kauften,
kauften auch andere Produkte.“

Forschung

Bessere Therapielösungen basierend auf der Auswertung von Massendaten.

Unternehmen

Firmen, die ihre Kunden besser kennen, stellen passendere Angebote bereit.

Marketing

Mehr Infos für eine bessere Kundenbeziehung und Beeinflussung des Kaufverhaltens.

Sicherheit

Auswertungen von Big Data zur Terrorismusbekämpfung.

Wartung

Mittels Big Data können Ausfälle von Maschinen vorhergesehen werden. Die Ursache wird mittels Predictive Maintenance behoben.

Wie ist die Geschichte von Big Data?

Der Begriff Big Data und der Umgang damit sind recht neu. Erste Anfänge gehen jedoch zurück in die 1960er und 1970er Jahre, als erste Rechenzentren eingerichtet wurden, um die steigende Anzahl an Daten verarbeiten zu können.

Ab etwa 2005 wurde immer ersichtlicher, dass die Datenmenge durch die Nutzung zahlreicher Online-Dienste enorm stieg. Es folgte die Entwicklung von Hadoop – ein Open-Source-Framework, das darauf ausgelegt ist, große Datensätze zu speichern und zu analysieren. Ebenfalls vermehrt in den Fokus rückte NoSQL, also Datenbanken, die einen nicht-relationalen Ansatz verfolgen. Beide Varianten vereinfachen es, große Datenmengen zu verarbeiten, und reduzieren gleichzeitig Speicherkosten.

Heute gehört Big Data zum Alltag dazu, die Entwicklung ist bereits fest implementiert. Wirft man jedoch einen Blick auf die Nutzung, wird sichtbar, dass wir hier erst am Anfang stehen. Besonders das Cloud-Computing ermöglicht es durch seine flexible Skalierbarkeit, Big Data noch intensiver zu nutzen.

Figur, die auf etwas zeigt

Warum wird Big Data teils kritisch gesehen?

Die Verarbeitung von Massendaten bezieht sich in vielen Fällen auf personenbezogene Daten, beispielsweise das Kommunikations- oder Konsumverhalten. Kritische Stimmen sprechen in diesem Zusammenhang immer wieder das Thema Persönlichkeitsrechte an. Besonders wichtig ist daher, verantwortungsvoll mit Big Data umzugehen und auf eine transparente elektronische Datenverarbeitung zu setzen.

Wie erweitert Big Data Business Intelligence?

Business Intelligence-Lösungen sind darauf ausgelegt, (mehrfach) täglich Daten in überschaubarer Menge zu aktualisieren. Big Data hingegen ermöglicht es, große Datenmengen in Echtzeit zu aktualisieren und sie gleichzeitig zu verarbeiten. Außerdem ergänzt Big Data Business Intelligence um die Frage nach dem „Warum“. Schließlich werden durch die Erkenntnisse basierend auf einer großen Menge an Daten neue Zusammenhänge sichtbar und Optimierungspotenziale deutlicher.

Big Data effizient managen

Große Datenmengen bieten große Potenziale - zumindest, wenn sie sinnvoll verarbeitet sind. Möglich macht das ein Data Warehouse, denn es verbessert die Datenqualität dank zentralem Speicherort. Wie das geht? Verrät unser kostenfreies Whitepaper.

Vorschaubild Whitepaper Data Warehouse
Inhalte

    Beitrag teilen

    Autor

    Datenauswertungen müssen nicht langweilig sein – das weiß Ivan Stumpf und dieses Wissen gibt er weiter. Ob Blogbeitrag, Beratungsgespräch oder Kundenprojekt: Ivan ist von der ersten Sekunde an voll dabei, Sie und Ihr Vorhaben erfolgreich ans Ziel zu bringen. 

    Weitere interessante Beiträge

    Data Warehouse

    Was ist ein Data Warehouse und wie ist es aufgebaut? Erklärung, Vorteile, Aufgaben und mehr. Jetzt informieren!

    Single Point of Truth

    Was ist ein Single Point of Truth (SPoT) und wie wird er umgesetzt? Vorteile, Einführung und mehr. Jetzt informieren!

    Workflow Management

    Was ist Workflow Management und wie wird es effizient umgesetzt? Grundlagen, Beispiele und mehr. Jetzt informieren!

    Unser Quartalsupdate

    Langweilige Newsletter, die sich lesen wie Werbung? Braucht man nicht. Stattdessen gibt es unser Quartalsupdate:

    Newsletter abonnieren

    © 2024 - YAVEON | All rights reserved

    Nach oben