Business Intelligence (kurz: BI) kann man das fachliche, technische und organisatorische Umfeld von Organisationen und Organisationsverbünden nennen, welches sich einerseits mit der Bereitstellung aber auch mit der Nutzung von Daten bzw. Informationen beschäftigt, die diese Organisationen befähigen, in Bezug auf ihre Tätigkeit Entscheidungen zu treffen.

Datenquellen für BI Business Intelligence

Die Daten für Business Intelligence stammen sowohl aus dem operativen Geschäft der Organisationen als auch aus sonstigen externen Datenquellen. Die operativen Geschäftsprozesse werden durch die operativen Software Lösungen wie ERP, CRM, ECM, MES, … unterstützt. Diese nennt man auch „OLTP“ Systeme: „Online Transaction Processing“ Systeme. Sie dienen dazu, die im operativen Geschäft anfallenden Daten und deren Bearbeitungsmechanismen (Create, Read, Update, Delete, Search) zu unterstützen.

Da die für die Abspeicherung verwendeten Speichermechanismen (meist relational) und deren Modelle nicht besonders geeignet sind, um das „Read“ und das „Search“ auf große Datenmengen entsprechend einfach und schnell zu unterstützen, hat man nach 1990 begonnen, eine eigene Datenschicht, genannt „Data Warehouse“ (kurz auch: DWH), einzurichten, die aus den operativen internen und externen Systemen mit Daten gespeist wird, und eigene Software Systeme für die Bearbeitungsmechanismen (Read, Search, Update) zu entwickeln, genannt „OLAP“ Systeme: „Online Analytical Processing“-Systeme. Dabei kam zu Tage, dass die Daten vor der Übernahme in das Data Warehouse bearbeitet und aufbereitet werden müssen.


Was sind nun die Treiber hinter all diesen Aktivitäten? Aus geschäftlicher Sicht ist es so, dass Organisationen immer mehr von der „prozessgetriebenen“ Organisation zu einer „datengetriebenen“ Organisation wurden und werden (Anmerkung: „Big Data“ trägt weiter dazu bei). In jedem Prozessschritt müssen die operativen und die dispositiven Informationen richtig und rechtzeitig und an dem Ort, wo sie gebraucht werden, zur Verfügung stehen. Dies bedingt, dass entsprechende Datendienste („Data Services“) eingerichtet werden, welche die Komplexität und die Qualitätsmängel in den Schemata und in der Semantik der Daten bereinigen bzw. vom Nutzer fernhalten.
Prozess triggert Daten triggern Prozesse

Datenmanagement und Data Governance


Seit geraumer Zeit beherrscht das Schlagwort „Big Data“ den Blätterwald in der Fach- und zunehmend auch der Wirtschaftspresse. Verborgen hinter dem Begriff „Predictive Analytics“ steht dabei der Blick in die Zukunft im Raum, wenn es um das Nachfrageverhalten, Kundenwünsche oder auch Liefertermine geht. Viel Aufsehen erzielen dabei Anwendungsszenarien aus dem Konsumgüterbereich, wo sich z.B. Amazon ein Verfahren zum „Vorausschauenden Versand“ patentieren ließ. Hierbei wird die Ware bereits an ein Versandzentrum in der Nähe eines Kunden geschickt, ohne dass dieser Kunde schon bestellt hätte. Der große Vorteil: Amazon reduziert die kaufentscheidenden Lieferzeiten erheblich und kann gleichzeitig Bestandspuffer und -kosten reduzieren. Voraussetzung hierfür ist, dass Amazon anhand des Kauf- und Onlineverhaltens dieses Kunden in spe einen Kauf mit sehr hoher Wahrscheinlichkeit vorhersagen kann. Die Prognose erfolgt mittels Modellen, die anhand von Abermillionen Datensätzen – buchstäblich „Big Data“ – erzeugt werden.

Vor dem Hintergrund derartiger Szenarien sagen viele Mittelständler – nicht nur aus der Industrie – nicht ganz zu unrecht: „Bei uns gibt es nicht wirklich Big Data – das ist eher etwas für die Internet-Multis, die an Millionen Endverbraucher liefern als für einen Maschinenbauer mit ein paar hundert Kunden“.

big-data-mittelstand

Dennoch muss man sich die Frage stellen, ob nicht auch ein mittelständischer Maschinenbauer oder Automobilzulieferer über Big Data verfügen könnte und – noch viel wichtiger – verfügen sollte. Werden z.B. jedem Werkstück mittels Auto-ID-Technologien Informationen zu seinem Auftrag sowie zu Bearbeitungsstatus, Qualität, Lagerort etc. an jeder Bearbeitungsstation und in jedem Zwischenlager mit auf den Weg gegeben und gleichzeitig in die Produktionsplanungs- und –steuerungssysteme gemeldet, dann erzeugt auch ein mittelständischer Fertigungsbetrieb in kürzester Zeit „Big Data“. Technisch und kostenseitig ist das heute kein Ding der Unmöglichkeit mehr. Der große Vorteil dieses Szenarios, das sich eng an das Konzept der „Industrie 4.0“ anlehnt, resultiert aus einer dramatisch schnelleren Reaktion auf die Gegebenheiten in der Fertigung, die sich in kürzeren Lieferzeiten und höherer Kapazitätsauslastung bei gleichzeitig geringeren Lagerbeständen niederschlägt. Denkt man das Szenario zu Ende, dann bietet sich – analog zu Amazon – über „Big Data“ ein Ansatzpunkt, auch im mittelständischen Fertigungsunternehmen die Logistik vorausschauend und damit proaktiv zu steuern anstatt mit mehr oder weniger großen Verzögerungen zu reagieren.