Das weltweite Aufkommen elektronischer Daten nimmt in einem überwältigenden Ausmaß zu. Führt man sich dabei die Funktion des Controlling vor Augen, so scheint sich eine nie dagewesene Chance zu bilden. Der Controller hat unter anderem die Aufgabe, den Manager durch geeignete Informationen in seiner Entscheidungsfunktion zu unterstützen (insbesondere Reichmann [Controlling] 45). Allerdings zeichnet sich durch Big Data ein Trend ab, der diese Funktion des Controlling gefährden könnte. Big Data – verstanden als die effiziente Speicherung und Nutzung großer Datenmengen – ermöglicht in vielen Bereichen eine verstärkt quantitative Entscheidungsfindung mit, im Gegensatz zur bestehenden Praxis, vorhersagenden bzw. prädiktiven Informationen (vgl. McAfee/Brynjolfsson [Big Data] 62). Die Darstellung der Informationen wird dabei von Software übernommen. Verknüpft mit der Tatsache, dass die zugrunde liegenden Datenbestände nun in nahezu Echtzeit verarbeitet werden können, liefert Big Data dem Manager ein Werkzeug, welches bei ausreichender Sachkunde aufseiten des Managers die Informationsbereitstellung durch den Controller überflüssig macht. So betrachtet, kann Big Data das Controlling in seiner Informationsfunktion stark verändern (vgl. Weber [Controlling & IT] 27).
Inhaltsverzeichnis
Abkürzungsverzeichnis
A Schafft Big Data das Controlling ab?
B Wie beeinflusst Big Data das Controlling?
C... Techniken zum Umgang mit Big Data
I. Technische Ansätze – die technologischen Voraussetzungen zur Informationsverarbeitung von Big Data
1. Serverlösungen durch Cloud Systeme
2. Neue Architekturen mit Hadoop und MapReduce
II. Methodische Ansätze – die analytische Informationsverarbeitung von Big Data
1. Data Mining
2. Vorhersagen
3. Optimierung
III. Visualisierung – Die Spitze des Eisberges
IV. Herausforderungen für das Controlling in Bezug auf Big Data
D... Die Zukunft des Controlling
Literaturverzeichnis
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
A. Schafft Big Data das Controlling ab?
Das weltweite Aufkommen elektronischer Daten nimmt in einem überwältigenden Ausmaß zu. Führt man sich dabei die Funktion des Controlling vor Augen, so scheint sich eine nie dagewesene Chance zu bilden. Der Controller hat unter anderem die Aufgabe, den Manager durch geeignete Informationen in seiner Entscheidungsfunktion zu unterstützen (insbesondere Reichmann [Controlling] 45). Allerdings zeichnet sich durch Big Data ein Trend ab, der diese Funktion des Controlling gefährden könnte. Big Data – verstanden als die effiziente Speicherung und Nutzung großer Datenmengen – ermöglicht in vielen Bereichen eine verstärkt quantitative Entscheidungsfindung mit, im Gegensatz zur bestehenden Praxis, vorhersagenden bzw. prädiktiven Informationen (vgl. McAfee/Brynjolfsson [Big Data] 62). Die Darstellung der Informationen wird dabei von Software übernommen. Verknüpft mit der Tatsache, dass die zugrunde liegenden Datenbestände nun in nahezu Echtzeit verarbeitet werden können, liefert Big Data dem Manager ein Werkzeug, welches bei ausreichender Sachkunde aufseiten des Managers die Informationsbereitstellung durch den Controller überflüssig macht. So betrachtet, kann Big Data das Controlling in seiner Informationsfunktion stark verändern (vgl. Weber [Controlling & IT] 27).
B. Wie beeinflusst Big Data das Controlling?
Big Data bezeichnet die Verwendung von Daten, die in bisher ungekanntem Ausmaß vorliegen, um diese in Geschäftsnutzen zu verwandeln (vgl. BITKOM [Praxiseinsatz] 5). Zur Definition von Big Data dienen die 3 V’s – Volume, Velocity und Variety – der Gartner Group (siehe Laney [3-D] 1ff).
Volume kennzeichnet die hohe elektronische Datenmenge, die einerseits generiert wird und andererseits abgespeichert werden muss. Die exponentielle Entwicklung diesem Feld wurde unter anderem in einer Studie von Hilbert und López nachgewiesen (Hilbert/Lopez [Kapazität] 63ff.). Sehr stark sinkende Preise für Speichermedien tragen zu der Entwicklung bei (vgl. Russom [Big Data] 9), dass vielen Unternehmen heutzutage Daten im Petabyte-Umfang zur Verarbeitung bereit stehen. Diese großen (verfügbaren) Datenmengen bilden die Basis für Big Data.
Velocity bezeichnet Geschwindigkeit und bezieht sich einerseits auf die Geschwindigkeit mit der Daten generiert werden und andererseits auf die Geschwindigkeit mit der Daten ausgewertet werden können. Ein Großteil der heutzutage entstehenden Daten ist bereits in Echtzeit verfügbar. So werden bspw. nach Fischermann und Hamann ([Datengold] 17) Daten über den Zustand einer Flugzeugturbine, permanent an deren Hersteller übersandt, um Unregelmäßigkeiten bereits in der Luft feststellen zu können und das Bodenpersonal über eventuelle Reparaturen zu informieren während die Maschine noch in der Luft ist). Der diesbezüglich limitierende Faktor war bisher vielmehr die Rechenleistung gängiger IT-Lösungen, um die großen Datenmengen auszuwerten bzw. zu bearbeiten. Dabei muss die Verarbeitungszeit mit der Datenmenge schritthalten (vgl. BITKOM [Praxiseinsatz] 21). Eine Auswertung der Daten der Flugzeugturbine über Stunden wäre nicht ausreichend, um das Bodenpersonal zu verständigen. Big Data Anwendungen machen eine derart schnelle Auswertung großer Datenmengen möglich und bilden die Basis für die Anwendbarkeit von Big Data.
Variety bezieht sich als Merkmal auf die Vielfalt der Daten. Große Datenmenge bestehen heute aus völlig unterschiedlichen Datenformaten. Die Daten kommen dabei bspw. von Sensoren, GPS-Signalen oder von Mitteilungen, Videos und Fotos aus dem Social Media (McAfee/Brynjolfsson [Big Data] 63). Dies kennzeichnet den eigentlichen Unterschied zwischen dem traditionellen Umgang mit großen Datenmengen und Big Data. Bisher wurde in Datenbanken, d. h. in tabellarisch organisierten Speicherlösungen wie Data Warehouse nach den zugrunde liegenden Zusammenhängen der Daten gesucht. Big Data Anwendungen machen eine Analyse verschiedener auch unstrukturierter Datentypen möglich.
Abbildung 1 zeigt drei wichtige Controlling-Instrumente, deren Verständnis und den Einfluss von Big Data auf das jeweilige Instrument. Es stellt sich nun die Frage wie Big Data das Controlling beeinflusst. Da Big Data sich auf die Datenebene bezieht, ist dort ein großer Einfluss zu erwarten, wo der Controller auf Daten und Informationen angewiesen ist bzw. mit diesen arbeitet.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung1: Wichtige Instrumente des Controlling (in Anlehnung an Troßmann [Controlling] 123, 189, 159) und Einfluss von Big Data
C. Techniken zum Umgang mit Big Data
Die nachfolgend aufgezeigten Techniken im Umgang mit Big Data bilden einen Ausschnitt wichtiger Möglichkeiten Big Data zu verarbeiten. Abbildung 2 soll deren Zusammenspiel verdeutlichen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung2: Model zur Beschreibung des Umgangs mit Big Data
I. Technische Ansätze – die technologischen Voraussetzungen zur Informationsverarbeitung von Big Data
Wie aus Abbildung 2 deutlich wird, bilden die technischen Möglichkeiten Daten in großem Umfang zu verarbeiten die Basis für alle weiteren Überlegungen. Da in die Leistung der IT erheblich zugenommen hat, können heute Daten in großem Umfang (Volume) in nahezu Echtzeit (Velocity) gespeichert und bearbeitet werden. Eine besondere Herausforderung ist der Umgang mit unstrukturierten Daten (Variety), welche später genauer zu beschreiben ist.
1. Serverlösungen durch Cloud Systeme
Bei Server- bzw. Speicherlösungen ist Big Data nur sinnvoll mit sogenannten Cloud Systemen anwendbar. Diese vereinen zwei elementare Voraussetzungen für Big Data: Hohe Skalierbarkeit über verteilte Systeme. Skalierbarkeit bezeichnet die möglichst unkomplizierte Anpassbarkeit der Speichergröße an die Anforderungen der Unternehmen. Verteilte Systeme ermöglichen einzelne Rechenschritte auf unterschiedliche Systeme zu verteilen und so wesentlich schnellere Rechenzeiten zu erzielen (ähnlich zum Grid-Computing). Kombiniert mit sogenannten In-Memory Datenbanken kann aus technischer Sicht, die für Big Data notwendige hohe Geschwindigkeit der Datenverarbeitung erreicht werden. Die Kosten dieser Systeme können einerseits durch flexible Anpassung der vorzuhaltenden Speicherkapazität minimiert werden, andererseits bietet sich die Verteilung des Gesamtsystems auf verschiedene Subsysteme an, da das Grosch’sches Gesetz (dieses besagte, dass ein PC zum Preis von zwei einzelnen PCs mehr Leistung liefert als die beiden einzelnen PCs zusammen) nicht mehr gilt.
2. Neue Architekturen mit Hadoop und MapReduce
Häufig gestellte Fragen
Was ist das Hauptthema des Textes?
Der Text befasst sich mit dem Einfluss von Big Data auf das Controlling, untersucht wie Big Data das Controlling beeinflusst und welche Techniken zum Umgang mit Big Data existieren.
Welche Definition von Big Data wird im Text verwendet?
Big Data wird definiert als die Verwendung von Daten in bisher ungekanntem Ausmaß, um diese in Geschäftsnutzen zu verwandeln, und wird durch die 3 V's (Volume, Velocity, Variety) der Gartner Group charakterisiert.
Was sind die 3 V's von Big Data?
Die 3 V's sind Volume (hohe Datenmenge), Velocity (Geschwindigkeit der Datengenerierung und -auswertung) und Variety (Vielfalt der Datenformate).
Welche technischen Ansätze werden für den Umgang mit Big Data genannt?
Der Text nennt Serverlösungen durch Cloud-Systeme und neue Architekturen mit Hadoop und MapReduce als wichtige technische Ansätze.
Wie beeinflusst Big Data die Informationsfunktion des Controllings?
Big Data kann die Informationsfunktion des Controllings stark verändern, indem es eine verstärkt quantitative Entscheidungsfindung mit prädiktiven Informationen ermöglicht und die Notwendigkeit der Informationsbereitstellung durch den Controller potenziell überflüssig macht.
Welche Controlling-Instrumente werden im Zusammenhang mit Big Data erwähnt?
Der Text erwähnt wichtige Controlling-Instrumente, ohne diese spezifisch zu benennen, sondern verweist auf Abbildung 1, die diese Instrumente darstellt und den Einfluss von Big Data aufzeigt.
Was sind Cloud-Systeme und warum sind sie wichtig für Big Data?
Cloud-Systeme vereinen hohe Skalierbarkeit über verteilte Systeme und ermöglichen flexible Anpassung der Speichergröße an die Anforderungen der Unternehmen. Sie sind wichtig für Big Data, da sie die Verarbeitung großer Datenmengen in nahezu Echtzeit ermöglichen.
Was ist Hadoop und wozu dient es?
Hadoop ist ein Open-Source-System von Apache, das die Möglichkeit bietet, verschiedene Datenformate anzusprechen, die Servergröße flexibel anzupassen und gleichzeitig tiefe analytische Verfahren zu ermöglichen. Es wird als NoSQL-DB bezeichnet.
Was ist MapReduce?
MapReduce ist das zentrale Programmierparadigma, um Daten in Hadoop zu bearbeiten bzw. zu analysieren.
Was ist der Unterschied zwischen traditionellen Data Warehouse Systemen und Big Data Anwendungen?
Traditionelle Data Warehouse Systeme basieren auf tabellarisch organisierten Speicherlösungen (RDBMS) und sind hauptsächlich für strukturierte Daten geeignet. Big Data Anwendungen ermöglichen die Analyse verschiedener, auch unstrukturierter Datentypen.
Was bedeutet das Grosch’sche Gesetz im Kontext von Big Data?
Das Grosch’sche Gesetz besagte, dass ein PC zum Preis von zwei einzelnen PCs mehr Leistung liefert als die beiden einzelnen PCs zusammen. Es gilt im Kontext von Cloud-Systemen nicht mehr, da die Verteilung des Gesamtsystems auf verschiedene Subsysteme kosteneffizienter sein kann.
- Quote paper
- B.Sc. der Wirtschaftswissenschaften Mark Mayer (Author), 2014, Big Data im Controlling. Techniken zum Umgang mit großen Datenmengen, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/272582