Link zur gedruckten Seite: http://de.sycor-group/dynamics-ax/wissenswert/data-analytics/
Druckdatum: 23.09.17

Data Analytics

– die BI-Welt hat sich bereits verändert!

Cortana, Siri,Alexa: in unserem täglichen Leben begegnen wir modernen Methoden der Datenanalyse – am PC, bei der Nutzung von Mobiltelefonen oder an der Musikanlage heute ganz anders als beim klassischen Reporting oder Berichtswesen. Der Begriff Data Analytics steht dabei für eine große Vielfalt von Methoden, mit denen Daten zu entscheidungsrelevanten Fragestellungen aufbereitet werden. Dieser Artikel gibt einen Überblick über die wesentlichen Methoden anhand ihrer zeitlichen Perspektive und Einsatzmöglichkeiten.

 

Managed BI und Self-Service BI

Das klassische BI - Business Intelligence - hilft uns dabei, unternehmensrelevante Kennzahlen auszuwerten und so eine meist retrospektive Analyse der Unternehmensleistungen durchzuführen. Hierbei werden Attribute und Kennzahlen aus den führenden Systemen im Unternehmen zusammengetragen und auf eine vergleichbare Basis transformiert. Darüber hinaus helfen uns sogenannte KPIs – Key Performance Indicators –  die Zusammenhänge zwischen den Kennzahlen und Attributen in Relation zum zeitlichen Verlauf zu erkennen und zu deuten. Übliche BI-Projekte ziehen Daten aus einem oder mehreren Wirtschaftssystemen wie Microsoft Dynamics AX oder SAP und bereiten sie tagesaktuell für die Analyse auf. Dabei ist neben der betriebswirtschaftlichen Kompetenz insbesondere wichtig, dass die Daten in den Vorsystemen bereits validiert vorliegen. Deswegen kommen klassische BI-Projekte im Zuge einer ERP-Einführung erst kurz vor Ende der Projekte richtig in Fahrt. Die aufbereiteten Daten werden in einem Data-Warehouse zusammengetragen und das Ergebnis in Form von multidimensionalen Datenbanken für OLAP (Online Analytical Processing) bereitgestellt. Diese Analysemethode bezeichnen wir als „Managed BI“.

„Klassiche BI-Projekte im Zuge einer ERP-Einführung kommen erst kurz vor Ende richtig in Fahrt!“

Managed BI ist nach wie vor ein Eckpfeiler für eine erfolgreiche Unternehmensführung, obgleich der technologische Fortschritt uns zu weitaus mehr befähigt. Beispielsweise lassen sich die Daten mit den neuen Technologien, wie in In-Memory oder spaltenbasierter Indizierung, schon im relationalen Datenmodell so weit beschleunigen, dass sie für eine analytische Auswertung verwendet werden können. Die Zeit zwischen dem aktiven Klick in der Auswertung oder eines eingebetteten Filters und der Ergebnisdarstellung ließe sich ohne die neuen Technologien bei großen Datenmengen hervorragend für das übrige Tagesgeschäft oder eine ausgiebige Mittagspause nutzen. Doch ist bei der analytischen Visualisierung, unabhängig von der Datenherkunft, die Erwartungshaltung beim Berichtserstellenden eine ganz andere: Die Ergebnisse sollen sofort, oder zumindest sehr zeitnah verfügbar sein. Wir können hier durchschnittlich fünf Sekunden bis zur Ergebnisdarstellung annehmen, eine längere Wartezeit lässt den einen oder anderen Controller bereits unruhig werden.

„Fünf Sekunden bis zur Ergebnisdarstellung sind das Ziel – längere Wartezeiten machen den einen oder anderen schon nervös.“

Die Möglichkeit, relationale Daten für Ad-hoc-Analysen zu nutzen, hat darüber hinaus ein weiteres immer größer werdendes Bedürfnis des Berichtswesens befeuert: den flexiblen, individuellen Umgang mit der stetig steigenden Datenvielfalt und den zahlreichen Datenquellen, die in jedem Unternehmen gefunden werden können – im Analytics-Bereich auch Self-Service BI genannt.

Eine sehr wichtige Eigenschaft des Self-Service BI ist es, besonders flexibel in der Datenanbindung zu sein. Ob Excel oder einfache Textdateien, relationale oder multidimensionale Datenbanken, Datendienste oder sogar unstrukturierte Daten, wie die geschriebenen Befindlichkeiten aus sozialen Netzwerken – Self-Service BI möchte alles nutzen, ohne lange Wartezeiten. In den richtigen Zusammenhang gebracht, bieten die Daten den Unternehmen einen über den klassischen Ansatz hinweg gesteigerten Mehrwert. Self-Service Analysen mit operativen Daten aus den unterschiedlichsten Datenquellen bezeichnen wir als „Operational Analytics“. Sowohl im „Managed BI“ als auch im „Operational Analytics“ betrachten wir die Daten rückblickend. Üblichen Projekten im „Managed BI“ genügt dabei eine tagesaktuelle Betrachtung der Daten, bei „Operational Analytics“ befinden wir uns bereits im Bereich der Near-Real-Time Daten.

Stream Analytics

Hinzukommend lassen sich in jedem Unternehmen mittlerweile Daten finden, denen bereits zum Zeitpunkt der Datenerstellung besondere Aufmerksamkeit geschenkt werden sollte. Wir befinden uns im Bereich der Real-Time Daten, die beispielsweise von Sensoren in den unterschiedlichsten Ausführungen generiert werden. Sei es die Heizung, die uns die aktuellen Temperaturen der Wasserkreisläufe meldet oder auch Bildmaterial von Kameras, das uns erweitert um die nötige Intelligenz, vor möglichen Gefahren warnen kann. Definierte Schwellwerte in einem Echtzeit-Monitor befähigen uns außerdem – über Warnungen hinaus –automatisierte Prozesse zu starten, die sich anhand der Daten definieren lassen. Das „Internet of Things“ (IoT) teilt sich mit, pausenlos und jeden Tag im Jahr.

„In jedem Unternehmen finden sich Daten, denen schon zum Zeitpunkt ihrer Entstehung besondere Aufmerksamkeit geschenkt werden sollte!“

Die Analyse von Real-Time Daten bezeichnen wir als „Stream Analytics“. Über längere Zeiträume hinweg liefern uns Sensoren noch nie dagewesene Datenmengen in strukturierter aber auch unstrukturierter Form, die wir nur mit den richtigen Technologien für „Big Data“ bewältigen können. Dabei spielen die Verteilung von Daten, die Rechenleistung und die Zusammenfassung der Teilergebnisse zu einem Gesamtergebnis die wesentliche Rolle. Wir sind bei der Auswertungsaktualität in der Gegenwart angekommen, wie schaut es nun mit einem Blick in die Zukunft aus?

Machine Learning und Predictive Analytics

Ob operative Daten aus Wirtschaftssystemen, den Internetdiensten und sozialen Netzwerken, oder Sensordaten aus „Internet of Things“-Anwendungen: Ein echter Mehrwert lässt sich für uns generieren, wenn wir die Daten nicht nur für die retrospektive oder gegenwärtige Analyse verwenden, sondern auch daraus lernen, um Vorhersagen für eine möglichst wahrscheinliche Zukunft treffen zu können. Dazu verhelfen uns die Technologien aus dem Bereich „Machine Learning“. Anhand von gesammelten Daten trainierte statistische Modelle können dabei für Hochrechnungen verwendet werden oder klassifizierte Aussagen zu aktuellen Daten liefern. Ein bekanntes Beispiel kommt aus dem Themenbereich „Technical Field Service“ und beschreibt den Prozess zu proaktiven Wartungsarbeiten.

„Mit predictive Analytics hat die BI-Zukunft schon begonnen“

Wir befinden uns im Bereich „Predictive Analytics“ und haben den Blick in die Zukunft gewagt. „Machine Learning“ befähigt uns aber noch zu einem weiteren Schritt. Gesammelte Daten beschreiben Situationen aus der Vergangenheit, andere korrelierende und zeitlich nachfolgende Daten beschreiben, wie wir mit der Situation umgegangen sind und welchen Erfolg wir mit den Reaktionen erzielen konnten. Der gemessene Grad des Erfolgs lässt somit ebenfalls Schlüsse darüber zu, mit welcher Wahrscheinlichkeit wir mit welcher Reaktion den größten Erfolg erzielen können. Diese Auswertungsmethodik bezeichnen wir als „Prescriptive Analytics“.

Schauen wir uns die genannten prospektiven Auswertungsmethoden in einfacher Form am Beispiel einer Heizung an:

Die Sensoren einer Heizung liefern uns Temperaturen der Warmwasseraufbereitung. Sobald wir eine fallende Temperatur über einen vordefinierten Zeitraum erkennen, können wir aus den gesammelten Daten der Vergangenheit im zeitlichen Verlauf des Temperaturabfalls eine steigende Wahrscheinlichkeit für einen baldigen Heizungsausfall annehmen. Die prädiktive Analyse befähigt uns zu proaktivem Handeln, wir müssen eine Wartung an der Heizung vornehmen. Die daraufhin unternommenen Wartungsarbeiten und deren Erfolg werden ausgewertet und die Daten darüber gesammelt. Die präskriptive Analysemethode für diese gesammelten Daten wird uns zukünftig die erfolgreichsten proaktiven Wartungsaktionen aufzeigen, die wir daraufhin sogar automatisieren können.“

Visualierung der Daten

Die Auswertungsmethoden und zum Einsatz kommenden Technologien sind maßgeblich daran beteiligt, die in unterschiedlicher Form und Zeit generierten Daten anhand der fachlichen Anforderung gezielt aufzubereiten. Daraufhin müssen die Daten jedoch noch für die Empfänger verständlich visualisiert werden. Unterschiedliche Studien und Umfragen wiesen in den vergangenen Jahren daraufhin, dass aufgrund der steigenden Datenvielfallt eine einheitliche Visualisierung für die Endanwender eine immer größere Rolle spielt. Microsoft bietet uns hier das aktuell agilste Werkzeug für die Datenvisualisierung: Power BI. Unabhängig von der Datenherkunft werden Daten gleichartig visualisiert. Der Endanwender hat dabei eine Vielzahl von Daten-Konnektoren zur Verfügung und kann eine heterogene Datenlandschaft in gleichartigen Visualisierungen zur Anzeige bringen, weiterverarbeiten und anderen Endanwendern zur Verfügung stellen.

„Power Bi ist das agilste Werkzeug zur gleichartigen Datenvisualisierung“

Power BI-Dashboards fassen dabei Daten aus den unterschiedlichsten Geschäftsfeldern des Unternehmens zusammen und vereinheitlichen in einer Oberfläche den Blick auf klassische Analysen, Self-Service BI zu operativen Daten, Real-Time Monitoring und vorausschauende Betrachtungen. Sie liefern somit den übergreifenden Einblick für eine umfangreiche Unternehmenssteuerung.

Die Daten, die uns folglich heute schon in einer Plattform zusammengefasst und in Korrelation gebracht, zur Verfügung stehen, bedingen weitreichendere Verarbeitungs- und Betrachtungsmethoden, als sie allein der klassische Business Intelligence Ansatz liefern kann. Auch der Zeitpunkt, zu dem wir uns mit den Daten in Unternehmen und den spezifischen Analysemöglichkeiten auseinandersetzen müssen, befindet sich anders als im klassischen Business Intelligence, zu Beginn der digitalen Transformation der Unternehmensprozesse.

Business Intelligence fügt sich so nahtlos in die intelligenten Systeme ein und unterstützt sie ganzheitlich und prozessintegrativ: Aus BI wird kontinuierliches „Data Analytics“. Die verschiedenen Methoden des gesamten Bereiches der Data Analytics – „Managed BI, Operational Analytics, Stream Analytics, Predictive und Prescriptive Analytics“ – unterstützen uns in ihren jeweiligen Ausprägungen dabei, die verschiedenen Perspektiven von Zeit und Problemraum schneller aufzufassen, in ihren Strukturen zu erkennen, und so möglichst gute Entscheidungen zu treffen.

Tobias Kintzel

Sycor Ansprechpartner

Tobias Kintzel

Marketing - PR

Fon +49 551 490 2028

Fax +49 551 490 2901

tobias.kintzel@sycor.de

Microsoft Gold Partner Logo Easy Software Premium Partner Erfahrungen & Bewertungen zu Sycor Gruppe