Big Data, Pivot-Tabellen und Analytics: Revolution durch Digitalisierung

Strategisch angepackt, sind Big Data und Analytics ein Dreamteam! Doch was braucht es dazu, um sich Big Data nutzbar zu machen und strategisch zu managen? Vor allem die Bereitschaft, up to date zu bleiben. Leistungsstarke Betriebssysteme und ausgereifte Tools gehören dazu, um von der Revolution durch Digitalisierung zu profitieren. Wie z. B. Pivot-Tabellen, die dabei unterstützen, angesichts der komplexen Datenflut die geeigneten Strukturen zu schaffen.

Big Data Analytics: Evidenzbasiert entscheiden

Datenrevolution geht weder auf die Barrikaden, noch errichtet sie diese. Im Gegenteil: Transformative Maßnahmen reagieren mit kühlem Kopf angemessen auf die Anforderungen einer komplexen Entwicklungsagenda. Das Ziel: Datenproduktion und Datennutzung optimieren, Datenlücken schließen, Kapazitäten und Datenkompetenz aufbauen! So tauchte der Begriff der Datenrevolution u. a. 2015 im Kontext der UN-Beratungen zur globalen Entwicklungsagenda auf. Bessere Daten und Statistiken sollten sicherstellen, dass Regierungen, aber auch Unternehmen die Fortschritte bei Millenniums-Entwicklungszielen (MDGs) besser verfolgen und bewerten können. Mehr noch: Erfolgen Entscheidungen fundiert und evidenzbasiert, ebnet dies auch den Weg, darüber transparent Rechenschaft abzulegen. Kurz, die Datenrevolution nutzt umfangreiche Datenquellen, um Statistiken mehr als je zuvor in die Entscheidungsfindung einzubinden. Aber dazu braucht es Kapazitäten und Datenkompetenz im Bereich Big Data Analytics – und traditionelle Datenerfassungssysteme ein Make-over!

Was zeichnet Big Data aus?

Big Data ist Teil von Business Analytics – z. B. in der Digitalisierung der Industrie (Industry Analytics) – und wird durch die so genannten fünf Vs definiert: Volume, Velocity, Variety, Veracity und Value. Bei Volume als Datenmenge bewegen wir uns inzwischen im Zettabyte-Bereich. Um per PC mit einem Terrabyte-Speicher ein Zettabyte zu speichern, braucht es eine ganze Milliarde solcher Festplatten. Als Velocity – Tempo der Datenverarbeitung – wird Echtzeit angestrebt. Um dies zu erreichen, ist neben riesigen Datenmengen auch die Beschaffenheit dieser Daten zu bewältigen – oft semi- oder unstrukturiert, gespeist aus einer wachsenden Zahl unterschiedlicher Quellen. Datenvielfalt namens Variety eben: So sind nicht nur nach festen Regeln strukturierte Daten wie z. B. von Kundendatenbanken zu verarbeiten, sondern auch E-Mails, die zwar Eigenschaften wie den Absender als Merkmal tragen, aber in Inhalt und Anhang deutlich individueller sind. Stets wird dabei von Veracity (Richtigkeit) ausgegangen: Daten haben richtig, vollständig und verlässlich zu sein. Eine Voraussetzung übrigens, damit Daten für ein Unternehmen Wert (Value) besitzen.

 

Unternehmen: Bei Rechen- und Speichertechnik schritthalten!

Ein Blick zurück: Schon 1997 versuchte die NASA, Big Data in ihrer Arbeit mit Flugzeugsimulationen zu nutzen. Allerdings waren die computergenerierten Datenmengen viel zu groß für Verarbeitung und Visualisierung. Im Zuge der Digitalisierung nahm Rechen- und Speichertechnik die Herausforderung an, mit dem fortlaufenden Anstieg der Datenmengen schrittzuhalten. Das Mooresche Gesetz ahnte dies schon 1965: Alle 18 bis 24 Monate würden sich verfügbare Rechenleistung und Rechenspeicher verdoppeln. Insofern blieb – und bleibt! – Unternehmen nichts anderes übrig, als Variety und Velocity anwendungsbezogen zu definieren, weil beide über die Wahl von Hard- und Software bestimmen. Wer mit einem Betriebssystem wie Windows 11 auf dem neuesten Stand sein möchte, hat bei IT-Nerd24 ein exzellentes Preis-Leistungsverhältnis. Wer digitale Daten strategisch managt, hat im Wettbewerb die Nase vorn, weil er seinen Kunden Produkte und Services treffsicherer bereitstellen kann. Konsequent gedacht, erstreckt sich der Umgang mit Big Data auf alle Unternehmensbereiche – ob Marketing, Vertrieb, Logistik oder die Produktion selbst.

Was leisten Pivot-Tabellen?

Eine Pivot-Tabelle wertet Rohdaten aus, die in Tabellenform vorliegen – und zwar gut strukturiert. Indem sie Ursprungsdaten nach Merkmalen zusammenfasst, können bestimmte Eigenschaften der Daten pointiert dargestellt werden. Für eine Übersicht, die auf den Punkt kommt, so dass 5.000 Tabellen-Reihen und 20 Spalten auf drei Reihen und zwei Spalten zusammenschmelzen. Genaue Zielvorgabe vorausgesetzt: Welche Frage soll die Auswertung beantworten? Tabellenkalkulationssoftware wie Microsoft Excel, aber auch Google Drive und Google Analytics sind versiert im Umgang mit Pivot-Tabellen. Praxisbeispiel gefragt? Der Chef eines Anbieters für Automaten speist jeden Geräteverkauf in eine Tabelle ein – inklusive Verkäufer, Kunde, Umsatz und Kundenregion. Als die Geschäftsleitung wechselt, wünscht der neue Geschäftsführer einen Überblick über die Leistungen der Verkaufsabteilung der vergangenen drei Monate. Nun kommt die Pivot-Tabelle zum Zug, auf Basis der Geräteverkaufstabelle. Die Verkäuferspalte wird in Form von Reihenfeldern angelegt, über die einzelnen Werte gruppiert. Das Ergebnis? Eine Spalte, in der jede Reihe einen der unterschiedlichen Werte der Verkäufer-Spalte repräsentiert. Dank Pivot-Tabelle kann der Umsatz jedes Verkäufers per Summenformel ausgewertet werden. Kurz, jeder Aspekt eines Automatenverkaufs (auch Kunde oder Region) lässt sich strukturiert abrufen, in Beziehung setzen und gezielt als Pivot-Überblickstabelle darstellen. Pivot-Tabellen leisten auch bei großen Datenmengen den schnellen Gesamtüberblick. Vorausgesetzt, das Betriebsssystem ist auf dem neuesten Stand! Revolutionär im Bereich Datenverarbeitung, ist Windows 11 für den strukturierten Umgang mit größeren Datenmengen ideal.

Wie künftiges Datenvolumen-Wachstum bewältigen?

Grundsätzlich helfen Pivot-Tabellen bei der schnellen, effizienten Datenanalyse und Datenaufbereitung. Allerdings muss sich auch die Pivot-Tabelle in Zeiten von Big Data neuen Herausforderungen stellen. Effizient im Bereich mittelgroßer Datensätze, stößt die Leistungsfähigkeit von Excel bei der Big Data Verarbeitung gelegentlich an Grenzen – was sich nicht zuletzt in langen Ladezeiten zeigt. Trotz Datenkomplexität soll die Pivot-Tabelle der Zukunft alle Daten integrieren, in Echtzeit aktualisiert werden und dabei skalierbar sein – sich also dem Wachstum des Datenvolumens anpassen. Was tun? Spezielle Big Data-Plattformen treten an, große Datensätze effizient zu verarbeiten. Tools erhalten Erweiterungen um Pivot-Tabellen-Funktionen oder Pivot-Tabellen werden neu in Business Intelligence-Lösungen integriert. Bei der zwingend nötigen Skalierbarkeit punkten vor allem cloudbasierte Lösungen wie rechenstarke Cloud-Plattformen. Auch Google BigQuery oder Amazon Redshift erledigen Pivot-Tabellenanalysen auf umfangreichen Datensätzen ohne die Notwendigkeit lokaler Infrastruktur.

Fazit: Big Data Datenanalyse fortlaufend anpassen!

Wer Datenanalyse mit Pivot-Tabellen in der Big Data Ära zukunftsfest machen will, muss Tools und Methoden fortlaufend anpassen – künstliche Intelligenz nicht zu vergessen. Es gilt also, zeitgemäße Big Data-Technologie und Cloud-Kapazitäten einzubinden, um angesichts riesiger Datenmengen weiterhin fundierte Entscheidungen zu treffen. Was auch für kleine und mittelständische Unternehmen (KMUs) gilt. Denn Big Data als vierte industrielle Revolution wird der neue Standard – gemeinsam mit Business Intelligence und Internet der Dinge.

Nach oben scrollen