Während der letzten Jahrzehnte haben viele Unternehmen intensiv am Ausbau und an der dauernden Optimierung ihrer Geschäftsprozesslandschaften und deren Abbildung in operativen Systemen wie ERP, CRM, … gearbeitet. In vielen Unternehmen ist dabei das Thema Datenqualität bzw. Datenfluss fachlich, organisatorisch und technisch nicht nachhaltig etabliert worden. Dabei ist ein verlässlicher Informationsaustausch – unternehmensintern oder mit externen Partnern (wie Kunden, Lieferanten, …) – nur mit qualitativ hochwertigen Daten möglich. Somit ist ein effizienter Datenfluss ein kritischer Erfolgsfaktor für die Prozesseffizienz und stellt eine wesentliche Basis für eine ganzheitliche Unterstützung von Geschäftsfällen dar. So wie in der Logistik „Datenfluss vor Materialfluss“ gilt, so gilt allgemein in den Geschäftsprozessen „Datenfluss vor Aktivitätenfluss/Prozessen“.
Unsere Kompetenz im Datenmanagement
Im Competence Center „Datenmanagement“ unterstützen wir Unternehmen in den Belangen „Informationsaufbereitung“ und „Informationsfluss“
- durch die Untersuchung der Qualität von Stamm- und Transaktionsdaten, der Datenmodelle und der Datenflüsse in den Applikationslandschaften,
- durch eine auf diesen Datenqualitätsuntersuchungen beruhende Sanierung, Optimierung und Migration der Daten
- in der bestehenden Applikationslandschaft und
- bei der Einführung von neuen Applikationen,
- durch die Einrichtung eines optimalen Datenflusses von den operativen Applikationen zu neu einzurichtenden oder schon vorhandenen Business-Intelligence-Lösungen und
- durch die Konzeption und Umsetzung von „Product-Life-Cycle“-Projekten (d.h. die Verbindung von CAD/CAM, PDM und Systems Engineering).
Top Download
Webinar
![]() |
Bei der Einführung einer neuen Business-Software beispielsweise für ERP, MES, CRM, PDM, HR oder Rechnungswesen ist die Migration der Altdaten eine der größten Herausforderungen. Die Daten des Altsystems müssen dabei in einer Form bereitgestellt werden, die das Einspielen der Daten ins neue System ermöglicht. Spezielle Tools, die eine strukturierte Datenanalyse oder über ein grafisches Mapping eine Job-gesteuerte Transformation unterschiedlicher Datenquellen erlauben, sind daher von essenzieller Bedeutung für eine reibungslose Datenmigration. Das Webinar erläutert zunächst die Fallstricke, denen man bei der Übernahme der Altdaten meist begegnet, und stellt anschließend entsprechende Werkzeuge vor, mit denen sich der Aufwand und das Fehlerrisiko bei der Migration minimieren lassen.
Anmeldung
|
Whitepaper
Weitere Downloads zum Thema
![]() |
|
![]() |
Artikel
Industrie 4.0 als Herausforderung für das Stammdatenmanagement in Unternehmen Auszug aus dem IT-Matchmaker.guide 4.0 |
Autor: | Thomas Schäffer, Prof. Helmut Beckmann, Hochschule Heilbronn | |
Erschienen: | 2017-04-18 | |
Schlagworte: | Datenmanagement, Datenqualität, Industrie 4.0, Stammdatenmanagement | |
Die zunehmende Digitalisierung in Wirtschaft und Gesellschaft hat zu drastischen Veränderungen in den Unternehmen geführt, und derzeit sind fast alle Unternehmen mit enormen externen und internen Herausforderungen konfrontiert, um wettbewerbsfähig zu bleiben. Da Stammdaten die Grundlage der digitalen Wirtschaft bilden, ist ein gewisses Maß an Datenqualität notwendig, um effiziente Geschäftsprozesse zu gewährleisten. Daher ist ein adäquates Stammdaten-Qualitätsmanagement sowohl auf Unternehmens- als auch auf interorganisationaler Ebene von wesentlicher Bedeutung. Erkenntnisse aus aktuellen Forschungen zeigen jedoch, dass in vielen Unternehmen beispielsweise der Produktstammaustausch aufgrund mangelhafter Stammdatenqualität problembehaftet, fehleranfällig, arbeits- und kostenintensiv ist. Der vorliegende Beitrag erläutert die Herausforderungen im Stammdatenmanagement aufgrund einer immer intensiveren Zusammenarbeit zwischen den Unternehmen und gibt Handlungsempfehlungen zur Verbesserung der unternehmensübergreifenden Stammdatenqualität. | ||
Download |
Data Quality Center
Das DataQualityCenter (DQC), eine Forschungsinitiative bestehend aus Datenmanagement-Experten der Hochschule Heilbronn, des FIR (e.V.) an der RWTH Aachen und der Trovarit AG, hat mit dem „Datenqualitäts-Assessment“ eine Methode entwickelt, mit dem die Ermittlung des Status Quo der Stammdatenqualität insbesondere auch für mittelständische Unternehmen mit vertretbarem Aufwand möglich ist.
Die Methodik basiert auf einem Best-of-Breed-Ansatz von über 20 Qualitätsmodellen zur Beurteilung der Datenqualität, wie zum Beispiel AIMQ, EFQM-Qualitätsmodell, TDQM oder TdQM. Zielsetzung der DQC-Methodik ist es, eine einfache und ressourcenschonende Vorgehensweise bereitzustellen, mit deren Hilfe ein Datenqualitäts-Index berechnet und in regelmäßigen Abständen überprüft werden kann.
Ihre Ansprechpartner
- Vorstand / Leiter Competence Center DatenmanagementPeter Treutlein
Peter Treutlein Vorstand / Leiter Competence Center Datenmanagement
- ConsultantAlex Ron
Alex Ron Consultant
Partner