Unsere Kompetenz im Datenmanagement
Im Competence Center „Datenmanagement“ unterstützen wir Unternehmen in den Belangen «Informationsaufbereitung» und «Informationsfluss»
- durch die Untersuchung der Qualität von Stamm- und Transaktionsdaten, der Datenmodelle und der Datenflüsse in den Applikationslandschaften,
- durch eine auf diesen Datenqualitätsuntersuchungen beruhende Sanierung, Optimierung und Migration der Daten
- in der bestehenden Applikationslandschaft und
- bei der Einführung von neuen Applikationen
- durch die Einrichtung eines optimalen Datenflusses von den operativen Applikationen zu neu einzurichtenden oder schon vorhandenen Business-Intelligence-Lösungen und
- durch die Konzeption und Umsetzung von Product Lifecycle-Projekten (d.h. die Verbindung von CAD/CAM, PDM und Systems Engineering).
Top Download
So öffnen Sie die Daten-Schatztruhe: Effiziente Datenverwaltung im Unternehmen
Der Fachartikel zeigt auf, wie eine effiziente Datenverwaltung im Unternehmen gelingen kann.
![]() |
Artikel
So öffnen Sie die Daten-Schatztruhe Effiziente Datenverwaltung im Unternehmen |
Autor: | Jost Enderle, Alex Ron | Trovarit AG | |
Erschienen: | 2022-09-22 | |
Schlagworte: | Datenanalyse, Datenbereinigung, Datenmanagement, Datenmigration, Datenqualität, Stammdatenanalyse, Stammdatenmanagement | |
Daten sind eine der wichtigsten Ressourcen eines Unternehmens. Sie dienen als Grundlage für strategische Entscheidungen und bieten immense Potenziale für Umsatz- und Gewinnsteigerungen. Dieser Goldschatz wird jedoch nicht selten stiefmütterlich behandelt und fristet ein Dasein im Verborgenen. Nur durch eine effiziente Datenverwaltung im Unternehmen kann er erfolgreich geborgen und sinnvoll genutzt werden. | ||
Download |
Webinar: Werkzeuge für die Datenmigration
![]() |
A
|
Erfolgreiche Datenmigration: Tipps und Tricks für ein reibungsloses Verfahren
|
20.10.2023 |
Thema: | Datenmigration, Datenmanagement |
Referent: | Alex Ron, Trovarit AG |
RWTH-Zertifikatskurs „Enterprise Data Manager“
Häufig erschweren oder verhindern heterogene, historisch gewachsene IT-Systemlandschaften, unterschiedliche Datenformate, -strukturen und Speicherorte eine systematische Datenverwertung. Im RWTH-Zertifikatskurs „Enterprise Data Manager“ erwerben Sie Wissen, Methoden und Tools, um diese Hindernisse zu überwinden und ein zielgerichtetes Datenmanagement in Ihrem Unternehmen zu etablieren.
Weitere Downloads zum Thema
![]() |
Whitepaper
Datenqualität als Schlüssel zur erfolgreichen Systemeinführung Stammdatenanalyse in Datenmigrationsprojekten |
Autor: | Alex Ron, Jost Enderle, Trovarit AG | |
Erschienen: | 2019-11-06 | |
Dateigröße: | 686,83 KB | |
Schlagworte: | Datenanalyse, Datenbereinigung, Datenmanagement, Datenqualität, ImplAiX, Implementierung, Stammdatenanalyse, Stammdatenmanagement | |
Das Whitepaper beschreibt anhand des Beispiels der fiktiven Eisenmeiser GmbH, welche Herausforderungen die Datenmigration im Zuge der Einführung einer neuen Unternehmenssoftware birgt. Aufwand und Komplexität dieser Aufgabe werden von Unternehmen meist unterschätzt. Deutlich erleichtert wird die Datenmigration durch eine gute und stukturierte Vorbereitung. Die Autoren geben Tipps rund um die Analyse und Bereinigung der Daten. | ||
Download |
![]() |
Artikel
4 + 8 Gründe, weshalb sich Unternehmen bei schlechter Datenqualität ausbremsen lassen |
Autor: | Alex Ron und Jost Enderle, Competence Center Datenmanagement der Trovarit AG | |
Erschienen: | 2019-10-10 | |
Schlagworte: | Business Software, Datenmanagement, Datenqualität, Digitalisierung | |
„Daten sind der Rohstoff des 21. Jahrhunderts“, bemerkte unsere Bundeskanzlerin bereits 2015. Solche oder ähnliche Sätze sind in den letzten Jahren immer häufiger zu hören. In der Tat bilden Daten das Fundament der digitalisierten Wirtschaft und dienen als Treibstoff für neue Dienstleistungen, neue Kundenzugänge, neue Preismodelle und neue Ökosysteme (Otto und Österle 2016). Für Unternehmen sind insbesondere die Stammdaten, die kritischen Geschäftsobjekte wie Produkte, Lieferanten, Kunden oder Mitarbeiter des Unternehmens ein wertvolles Gut. Daten können jedoch bei nachlässiger Handhabung auch in der Qualität leiden. Tippfehler bei der manuellen Dateneingabe, Fehler beim automatisierten Datenimport, doppeltes Vorhandensein von Daten (Dubletten) oder veraltete Daten sind Wasser im Tank für jeden Datenbestand. | ||
Download |
![]() |
Whitepaper
Stammdatenqualität im Zuge der Digitalisierung Strategie, Methode und Werkzeuge für die Praxis |
Autor: | DataQualityCenter | |
Erschienen: | 2018-12-07 | |
Schlagworte: | Datenmanagement, Datenqualität, Digitalisierung, Industrie 4.0, Master Data Management (MDM), Stammdatenmanagement | |
Im Zuge der Digitalisierung sehen sich Unternehmen zunehmend mit komplexeren und umfangreicheren IT-Systemen zur Unterstützung ihrer Geschäftsprozesse konfrontiert. Daten und Informationen sind zum kritischen Faktor für den erfolgreichen Geschäftsbetrieb geworden und bilden die Basis von technologischen Trends wie Industrie 4.0. Obwohl eine gesteigerte Sensibilität für die Bedeutung von Daten spürbar ist, wird das Thema Datenqualität in vielen Unternehmen immer noch vernachlässigt. DataQualityCenter hat mit dem „Datenqualitäts-Assessment“ eine Methode entwickelt, mit dem die Ermittlung des Status Quo der Stammdatenqualität insbesondere auch für mittelständische Unternehmen mit vertretbarem Aufwand möglich ist. Abgerundet wird das Whitepaper durch einen Überblick darüber, wie Software bei der Bewertung und Verbesserung der Datenqualität unterstützen kann und was bei der Auswahl einer Datenmanagement-Software zu beachten ist. | ||
Download |
![]() |
Artikel
Spezial: Stammdatenmanagement Sonderteil aus dem IT-Matchmaker.guide Industrie 4.0 |
Autor: | Div. | |
Erschienen: | 2018-04-19 | |
Schlagworte: | Industrie 4.0, Master Data Management (MDM), Softwareauswahl, Stammdatenmanagement | |
Im "DataQuality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des Forschungsinstitutts für Rationalisierung (FIR) an der RWTH Aachen und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. | ||
Download |
![]() |
Artikel
Industrie 4.0 als Herausforderung für das Stammdatenmanagement in Unternehmen Auszug aus dem IT-Matchmaker.guide 4.0 |
Autor: | Thomas Schäffer, Prof. Helmut Beckmann, Hochschule Heilbronn | |
Erschienen: | 2017-04-18 | |
Schlagworte: | Datenmanagement, Datenqualität, Industrie 4.0, Stammdatenmanagement | |
Die zunehmende Digitalisierung in Wirtschaft und Gesellschaft hat zu drastischen Veränderungen in den Unternehmen geführt, und derzeit sind fast alle Unternehmen mit enormen externen und internen Herausforderungen konfrontiert, um wettbewerbsfähig zu bleiben. Da Stammdaten die Grundlage der digitalen Wirtschaft bilden, ist ein gewisses Maß an Datenqualität notwendig, um effiziente Geschäftsprozesse zu gewährleisten. Daher ist ein adäquates Stammdaten-Qualitätsmanagement sowohl auf Unternehmens- als auch auf interorganisationaler Ebene von wesentlicher Bedeutung. Erkenntnisse aus aktuellen Forschungen zeigen jedoch, dass in vielen Unternehmen beispielsweise der Produktstammaustausch aufgrund mangelhafter Stammdatenqualität problembehaftet, fehleranfällig, arbeits- und kostenintensiv ist. Der vorliegende Beitrag erläutert die Herausforderungen im Stammdatenmanagement aufgrund einer immer intensiveren Zusammenarbeit zwischen den Unternehmen und gibt Handlungsempfehlungen zur Verbesserung der unternehmensübergreifenden Stammdatenqualität. | ||
Download |
Data Quality Center
Das DataQualityCenter (DQC), eine Forschungsinitiative bestehend aus Datenmanagement-Experten der Hochschule Heilbronn, des FIR (e.V.) an der RWTH Aachen und der Trovarit AG, hat mit dem „Datenqualitäts-Assessment“ eine Methode entwickelt, mit dem die Ermittlung des Status Quo der Stammdatenqualität insbesondere auch für mittelständische Unternehmen mit vertretbarem Aufwand möglich ist.
Die Methodik basiert auf einem Best-of-Breed-Ansatz von über 20 Qualitätsmodellen zur Beurteilung der Datenqualität, wie zum Beispiel AIMQ, EFQM-Qualitätsmodell, TDQM oder TdQM. Zielsetzung der DQC-Methodik ist es, eine einfache und ressourcenschonende Vorgehensweise bereitzustellen, mit deren Hilfe ein Datenqualitäts-Index berechnet und in regelmäßigen Abständen überprüft werden kann.