Big Data und Business Intelligence: Wissen ist Macht

Alle wissen, dass Daten wertvoll sind. So wertvoll, dass die Analysten von Gartner voraussagen, dass im Jahr 2020 jedes zehnte Unternehmen aus der Verwertung seiner Daten ein profitables Geschäft macht.

(Foto: chombosan - Fotolia)

»Daten sind das Öl des 21. Jahrhunderts« ist zu einem viel zitierten Slogan geworden, auch wenn er bei genauer Betrachtung nicht sehr passend erscheint. Der Hype um Big Data basiert auf dem enormen Anstieg des weltweiten Datenvolumens. 2011 überschritt das weltweite Datenvolumen die Zettabyte-Barriere – das ist eine 1 mit 21 Nullen oder eine Milliarde Terabyte. Ein Ende des Wachstums ist nicht in Sicht. 2020 sollen es bereits 35 Zettabyte sein. Laut einer Studie von Bitkom Research und KPMG nutzen bereits 35 Prozent der Unternehmen hierzulande Big Data, um große Datenmengen auszuwerten. Zum Vergleich: Zwei Jahre zuvor waren es nur gut 20 Prozent der Unternehmen.

In der Definition von Big Data bezieht sich das »Big« auf die drei Dimensionen Volume, Velocity und Variety. Manche Begriffsbestimmungen fügen noch Value und Validity hinzu. Mit dem Begriff Big Data sind oft nicht nur die Daten selbst, sondern auch die Technologien gemeint, die zum Sammeln und Auswerten der Datenmengen verwendet werden. Gängige Datenquellen sind etwa Aufzeichnungen von Überwachungssystemen, vernetzte Technik in Häusern, Social Media, elektronische Geräte wie Smartphones und Wearables und in zunehmendem Maß auch Autos.

Der eigentliche Wert der Daten liegt in ihrer Auswertung. Der gesamte Prozess der Suche, Vorverarbeitung und Auswertung läuft unter dem Stichwort »Data Mining«. Um die Daten in einen Mehrwehrt für das Unternehmen umzuwandeln, stehen mehrere Herangehensweisen zur Wahl. Business-Intelligence-Plattformen bieten Verfahren und Prozesse zur Sammlung, Auswertung und Darstellung der Daten. Das Ziel liegt meist darin, Kosten zu senken, Risiken zu minimieren und die Wertschöpfung des Unternehmens zu vergrößern. Dabei muss genau festgelegt werden, was man untersuchen will und was das Ziel der Analyse ist. Business Intelligence richtet den Blick also vorrangig auf einzelne Unternehmens-Kennzahlen und liefert viele punktuelle Einsichten. Das noch relativ unbekannte Process Mining verfolgt dagegen einen anderen, ganzheitlicheren Ansatz: Dabei werden nicht KPIs, sondern Prozesse analysiert und in Echtzeit so dargestellt, wie sie in der Realität ablaufen. So können Unternehmen ineffiziente Prozesse und Abweichungen von Soll-Werten schnell identifizieren.

Für Jochen Katz, Senior Product Marketing Manager bei Salesforce, ist künstliche Intelligenz ein notwendiges Werkzeug, um die Daten optimal auswerten zu können. »Jedes Unternehmen besitzt heute Unmengen an Daten. Um sie gewinnbringend zu nutzen, kommt kein Unternehmen mehr um Data Intelligence herum. KI-Technologien sind die Voraussetzung, um Daten in nahezu Echtzeit auszuwerten, Zusammenhänge zu erkennen und daraus Handlungsoptionen abzuleiten. Das Potenzial, damit Analysetätigkeiten in Geschäftsprozessen zu optimieren, ist gewaltig.« Zwar hätten die meisten Unternehmen nicht die Ressourcen, um KI-Lösungen zu entwickeln. Dabei komme ihnen aber der Trend entgegen, dass KI-Technologien sukzessive direkt in immer mehr Cloud-Diensten integriert sein werden.

Unternehmen sollten sich vor kommenden Big Data-Anforderungen nicht fürchten, meint Otto Neuer, Vice President Sales EMEA Central bei Talend. »Open Source-Technologien wie Apache Hadoop ermöglichen horizontal skalierende Dateisysteme, die selbst größte Datenmengen im Rechenzentrum sicher verarbeiten.«