Während der letzten Jahrzehnte haben viele Unternehmen intensiv am Ausbau und an der dauernden Optimierung ihrer Geschäftsprozesslandschaften und deren Abbildung in operativen Systemen wie ERP, CRM, … gearbeitet. In vielen Unternehmen ist dabei das Thema Datenqualität bzw. Datenfluss fachlich, organisatorisch und technisch nicht nachhaltig etabliert worden. Dabei ist ein verlässlicher Informationsaustausch – unternehmensintern oder mit externen Partnern (wie Kunden, Lieferanten, …) – nur mit qualitativ hochwertigen Daten möglich. Somit ist ein effizienter Datenfluss ein kritischer Erfolgsfaktor für die Prozesseffizienz und stellt eine wesentliche Basis für eine ganzheitliche Unterstützung von Geschäftsfällen dar. So wie in der Logistik „Datenfluss vor Materialfluss“ gilt, so gilt allgemein in den Geschäftsprozessen „Datenfluss vor Aktivitätenfluss/Prozessen“.
Unsere Kompetenz im Datenmanagement
Im Competence Center „Datenmanagement“ unterstützen wir Unternehmen in den Belangen „Informationsaufbereitung“ und „Informationsfluss“
- durch die Untersuchung der Qualität von Stamm- und Transaktionsdaten, der Datenmodelle und der Datenflüsse in den Applikationslandschaften,
- durch eine auf diesen Datenqualitätsuntersuchungen beruhende Sanierung, Optimierung und Migration der Daten
- in der bestehenden Applikationslandschaft und
- bei der Einführung von neuen Applikationen,
- durch die Einrichtung eines optimalen Datenflusses von den operativen Applikationen zu neu einzurichtenden oder schon vorhandenen Business-Intelligence-Lösungen und
- durch die Konzeption und Umsetzung von „Product-Life-Cycle“-Projekten (d.h. die Verbindung von CAD/CAM, PDM und Systems Engineering).
Webinar
![]() |
Bei der Einführung einer neuen Business-Software beispielsweise für ERP, MES, CRM, PDM, HR oder Rechnungswesen ist die Migration der Altdaten eine der größten Herausforderungen. Die Daten des Altsystems müssen dabei in einer Form bereitgestellt werden, die das Einspielen der Daten ins neue System ermöglicht. Spezielle Tools, die eine strukturierte Datenanalyse oder über ein grafisches Mapping eine Job-gesteuerte Transformation unterschiedlicher Datenquellen erlauben, sind daher von essenzieller Bedeutung für eine reibungslose Datenmigration. Das Webinar erläutert zunächst die Fallstricke, denen man bei der Übernahme der Altdaten meist begegnet, und stellt anschließend entsprechende Werkzeuge vor, mit denen sich der Aufwand und das Fehlerrisiko bei der Migration minimieren lassen.
Anmeldung
|
Whitepaper
Weitere Downloads zum Thema
![]() |
Competence Center Datenmanagement
Informationsbroschüre
|
Strategie, Methode und Werkzeuge für die Praxis
Autor: | DataQualityCenter - dqc.de | |
Erschienen: | 20.06.2018 | |
Schlagworte: | Datenmanagement, Datenqualität, Digitalisierung, Industrie 4.0, Master Data Management (MDM), Stammdatenmanagement | |
Im Zuge der Digitalisierung sehen sich Unternehmen zunehmend mit komplexeren und umfangreicheren IT-Systemen zur Unterstützung ihrer Geschäftsprozesse konfrontiert. Daten und Informationen sind zum kritischen Faktor für den erfolgreichen Geschäftsbetrieb geworden und bilden die Basis von technologischen Trends wie Industrie 4.0. Obwohl eine gesteigerte Sensibilität für die Bedeutung von Daten spürbar ist, wird das Thema Datenqualität in vielen Unternehmen immer noch vernachlässigt. Studien zufolge haben nur ca. 40% der Unternehmen (klar) definierte Strukturen und Prozesse im Stammdatenmanagement. Mit Data Governance existiert bereits ein umfangreiches Konzept zur Sicherstellung definierter Datenqualitätsziele im eigenen Unternehmen. Der Umfang eines solchen Projekts ist für viele Unternehmen jedoch abschreckend und darüber hinaus ist die eigene Datenqualität als Ausgangssituation kaum transparent. Die Forschungsinitiative DataQualityCenter (DQC) hat mit dem „Datenqualitäts-Assessment“ eine Methode entwickelt, mit dem die Ermittlung des Status Quo der Stammdatenqualität insbesondere auch für mittelständische Unternehmen mit vertretbarem Aufwand möglich ist. Abgerundet wird das Whitepaper durch einen Überblick darüber, wie Software bei der Bewertung und Verbesserung der Datenqualität unterstützen kann und was bei der Auswahl einer Datenmanagement-Software zu beachten ist. | ||
Download |
Sonderteil aus dem IT-Matchmaker.guide Industrie 4.0
Autor: | Div. | |
Erschienen: | 19.04.2018, IT-Matchmaker.guide Industrie 4.0 | |
Schlagworte: | Industrie 4.0, Master Data Management (MDM), Softwareauswahl, Stammdatenmanagement | |
Im "DataQuality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des Forschungsinstitutts für Rationalisierung (FIR) an der RWTH Aachen und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. | ||
Download |
Auszug aus dem IT-Matchmaker.guide 4.0
Autor: | Thomas Schäffer, Prof. Helmut Beckmann, Hochschule Heilbronn | |
Erschienen: | 18.04.2017, IT-Matchmaker.guide Industrie 4.0 | |
Schlagworte: | Datenmanagement, Datenqualität, Industrie 4.0, Stammdatenmanagement | |
Die zunehmende Digitalisierung in Wirtschaft und Gesellschaft hat zu drastischen Veränderungen in den Unternehmen geführt, und derzeit sind fast alle Unternehmen mit enormen externen und internen Herausforderungen konfrontiert, um wettbewerbsfähig zu bleiben. Da Stammdaten die Grundlage der digitalen Wirtschaft bilden, ist ein gewisses Maß an Datenqualität notwendig, um effiziente Geschäftsprozesse zu gewährleisten. Daher ist ein adäquates Stammdaten-Qualitätsmanagement sowohl auf Unternehmens- als auch auf interorganisationaler Ebene von wesentlicher Bedeutung. Erkenntnisse aus aktuellen Forschungen zeigen jedoch, dass in vielen Unternehmen beispielsweise der Produktstammaustausch aufgrund mangelhafter Stammdatenqualität problembehaftet, fehleranfällig, arbeits- und kostenintensiv ist. Der vorliegende Beitrag erläutert die Herausforderungen im Stammdatenmanagement aufgrund einer immer intensiveren Zusammenarbeit zwischen den Unternehmen und gibt Handlungsempfehlungen zur Verbesserung der unternehmensübergreifenden Stammdatenqualität. | ||
Download |
Auszug aus dem IT-Matchmaker.guide 4.0
Autor: | ||
Erschienen: | 19.04.2018, IT-Matchmaker.guide Industrie 4.0 | |
Schlagworte: | Advanced Planning & Scheduling (APS), Anbietermarkt, ERP, Manufacturing Execution Systems (MES), Master Data Management (MDM), Stammdatenmanagement, Supply Chain Management | |
Zusammenstellung der Übersichtstabellen zur Industrie 4.0, MES, APS, SCM, ERP und Stammdatenmanagement. | ||
direkter Download |
Data Quality Center
Das DataQualityCenter (DQC), eine Forschungsinitiative bestehend aus Datenmanagement-Experten der Hochschule Heilbronn, des FIR (e.V.) an der RWTH Aachen und der Trovarit AG, hat mit dem „Datenqualitäts-Assessment“ eine Methode entwickelt, mit dem die Ermittlung des Status Quo der Stammdatenqualität insbesondere auch für mittelständische Unternehmen mit vertretbarem Aufwand möglich ist.
Die Methodik basiert auf einem Best-of-Breed-Ansatz von über 20 Qualitätsmodellen zur Beurteilung der Datenqualität, wie zum Beispiel AIMQ, EFQM-Qualitätsmodell, TDQM oder TdQM. Zielsetzung der DQC-Methodik ist es, eine einfache und ressourcenschonende Vorgehensweise bereitzustellen mit deren Hilfe ein Datenqualitäts-Index berechnet und in regelmäßigen Abständen überprüft werden kann.
Ihr Ansprechpartner
- Vorstand / Leiter Competence Center DatenmanagementPeter Treutlein
Peter Treutlein Vorstand / Leiter Competence Center Datenmanagement
- ConsultantAlex Ron
Alex Ron Consultant
Partner