Statement III: Big Data

MH, 5. April 2016, 18:49

Big Data

Quelle:

Unter dem Begriff Big Data fassen Experten zwei Aspekte zusammen:

  1. einerseits immer schneller wachsende Datenhaufen,
  2. andererseits IT-Lösungen und Systeme, die Unternehmen dabei helfen, die vielen Informationen sinnvoll zu sortieren, filtern und verarbeiten.

 

Diese Berge an unstrukturierten Daten kommen größtenteils aus sozialen Netzwerken, wie bspw. Facebook, Twitter und Co. [1]

Die Sammlung von Big Data ist für vielerlei Optimierungen notwendig. Eine korrekte Analyse von Big Data kann zu tiefgreifenden Erkenntnissen führem, wie etwa 

  • Kostensenkung
  • Zeitersparnis
  • Entwicklung neuer Produkte
  • Optimierte Angebote von Produkten
  • vorausschauende Entscheidungsfindungen

 

Industrie-Analyst Doug Laney definierte den Begriff Big Data Anfang der 2000er Jahre durch die 3 Vs (Volume – Velocity – Variety) [2]

Volume: damit ist gemeint, dass Daten aus einer Vielzahl von verschiedenen Quellen stammen und von diversen Organisationen gesammelt werden. Diese Quellen können unter anderem Geschäfte, Social Media oder machine-to-machine Daten sein. In der Vergangenheit war die Speicherung dieser Daten ein Problem, doch viele neue Techologien haben dieses „Speicherproblem“ nun bereits bestmöglich gelöst.

Velocity(Geschwindigkeit): Diese Datenberge kommen in rasanter Geschwindigkeit und müssen dementsprechend schnell gefiltert, sortiert und verarbeitet werden. RFID tags, sensors und smart metering sind hier die bestmöglichen Systeme, um die Ströme an Daten in beinahe Echtzeit zu bearbeiten.

Variety (Vielfalt): Daten kommen in vielen verschiedenen Formaten, angefangen von strukturierten, numerischen Daten in traditionellen Datenbanken bis hin zu unstrukturierten Textdokumenten, E - Mails, Videos oder Finanztransaktionsdaten [2].

 

Von SAS, einem der weltweit führenden Analytik-Unternehmen, wurden zwei weitere Dimensionen zum Begriff Big Data hinzugefügt [3]:

Variability (Wandelbarkeit): Zusätzlich zu den immer steigenden Geschwindigkeiten und Datenvielfalt sind Datenströme sehr inkonstant. Es tauchen immer wieder periodische Spitzen auf (tagesbedingt, saisonal-bedingt oder eventbasiert), welche äußerst schwer zu verwalten sind.

Complexity (Komplexität): Datenberge stammen oftmals aus verschiedenen Quellen, welche schwierig zu verbinden, filtern, sortieren oder transformieren sind. Jedoch ist es für die Analyse der Daten äußerst notwendig, Daten zu verbinden und diese auf ihre Beziehungen, Hierarchien oder andere Anknüpfungspunkte zu vergleichen [3].

 

Ohne eine Kontrolle dieser 5 Punkte sind Big Data fast nicht zu bewältigen. 

 

Big Data bringt mit Sicherheit viel Optimierungsbedarf mit sich, aber ich frage mich immer, ob man denn gar keine Fehler mehr machen darf? Doch wie funktioniert die Datensicherheit?

Auch in Anbetracht auf den kleinen Einzelmann oder Einezlfrau - gibt es bereits genug Sensibiliserung, dass alle wissen, wofür ihre Daten verwendet werden?

Sind Korrelationen bereits wichtiger als kausale Erklärungsansätze, die sich oft erst später bewahrheiten oder falsifizieren lassen[4]?

 

[1] http://www.computerwoche.de/k/big-data,3457

[2] http://dl.acm.org/citation.cfm?id=2481246

[3http://www.sas.com/en_us/insights/big-data/what-is-big-data.html

[4] http://www.wired.com/2008/06/pb-theory/

 

alle Quellen wurden zuletzt abgerufen am 05.04.2016, um 15:30

0 comments :: Kommentieren


To prevent spam abuse referrers and backlinks are displayed using client-side JavaScript code. Thus, you should enable the option to execute JavaScript code in your browser. Otherwise you will only see this information.