Datencontrolling
1. Datencontrolling
Es gibt immer wieder Ereignisse und Innovationen, die die Wirtschaft langfristig und nachhaltig prägen und beeinflussen. Eines dieser branchenübergreifenden Veränderungen ist die Digitalisierung, welche einen immer wichtigeren, beinahe elementaren Wert für die Wirtschaft und Gesellschaft einnimmt. Die Digitalisierung hat die Industriebetriebe schon längst erreicht und aus dieser Neuerung wachsen immer neue Herausforderungen für die Betriebe, um am Markt wettbewerbsfähig zu bleiben. Dabei gibt es bereits viele bestehende Managementkonzepte für Datenqualität und Möglichkeiten Daten zu bewerten, diese werden jedoch nicht immer ihren Anforderungen gerecht.[1]
1.1. Daten als strategische Ressporce
Die rasante Entwicklung im IT-Bereich hat zur Folge, dass sich die Kapazitäten zum Sammeln und Verarbeiten von Daten in den letzten Jahrzehnten verhundertfacht haben und somit vollkommen neue Möglichkeiten entstehen. „Bereits in den 1980er Jahren entwickelten sich erste Bestrebungen, Daten wie „Assets“ zu behandeln"[2]. Nach dem Einzug des Internets um die Jahrtausendwende stieg der überbetriebliche Datenaustausch, sodass Unmengen an Daten entstehen, die gesammelt und verarbeitet werden müssen.
Das Controlling hat dabei die Aufgabe, die Daten herunterzubrechen und aus den Ergebnissen Handlungsempfehlungen für das Management abzuleiten. Dabei ist zu beachten, dass in diesem Fall von Tera-, bzw. Petabytes an Daten die Rede ist.
Eine weitere interessante Entwicklung ist, dass Daten mittlerweile selbst als Produkte gehandelt werden. So werden klassische Informationen über Kunden, aber auch Daten über Gebrauchtwagenhändler, Geoinformationen oder Nutzerstatistiken auf Plattformen gehandelt.
Obwohl die Bedeutung der Daten für Unternehmen seit Jahrzehnten wächst, fristet die Bewirtschaftung der Daten häufig ein Schattendasein. Ein Grund für dieses Problem ist meist das Fehlen von effektiven und effizienten Managementmethoden zur strategischen Überwachung dieser Ressource.[3] Stattdessen existieren reaktive Ansätze zur fortlaufenden Überwachung der Datenqualität, die in dem Moment greift, wenn die Qualität der Daten bereits mangelhaft ist. So ist die Stammdatenqualität extrem schwankungsanfällig, was die Prozessleistung negativ beeinflusst.
Eine weitaus bessere Lösung ist ein vorbeugend wirkender Management-Ansatz, der die Bewirtschaftung der Daten im Hinblick auf Kosten, Zeit und Qualität ermöglicht. Der Ansatz des Total Data Quality Managements, welcher am Massachusetts Institute of Technology (MIT) entwickelt wurde, überträgt die Prinzipien des Total Quality und des Lean Managements auf die Bewirtschaftung von Daten.[4] Darauf aufbauend wurde das Corporate Data Quality Management entwickelt, welches heute einen Referenzcharakter besitzt und in vielen Unternehmen implementiert wurde. Es zielt auf die Etablierung des qualitätsorientierten Datenmanagements als Unternehmensfunktion ab und hat das Controlling der Qualität der Unternehmensdaten als Kernfunktion.[5] Im Folgenden werden unterschiedliche Best-Practices-Prinzipien des Datenqualitätsmanagement vorgestellt.
1.2. Best Practice Strategien
Datenqualitätskennzahlen
Eine elementare Voraussetzung zur Implementierung eines Controlling Systems ist die Messbarkeit der zu überwachenden Daten, bzw. in diesem Fall die Messbarkeit der Datenqualität. Die Ergebnisse werden durch Kennzahlen vereinfacht ausgedrückt und stellen daher eine fortgeschrittene Instanz im Controlling dar.
Kennzahlensysteme für die Datenqualität bestehen meist aus drei zentralen Komponenten.
Die erste Komponente sind die Datenqualitätsdimensionen. Dabei handelt es sich um eine erste Einordnung der Qualität, in dem einzelne Attribute der Daten betrachtet werden. Dazu gehören zum Beispiel die Vollständigkeit, die Aktualität und die Konsistenz der einzelnen Elemente.
Die zweite Komponente ist die Datenqualitätsmetrik. Da die einzelnen Datenqualitätsdimensionen häufig zu wenig Aussagekraft besitzen, werden mehrere Dimensionen durch Regeln miteinander verbunden. Diese Regeln gewähren ein zusätzliches Maß an Qualitätssicherung und lassen Fehler durch logische Verbindungen schneller auffallen.
Die dritte und letzte Komponente ist der Datenqualitätsindex. Durch das Einführen eines Index, welcher das Verhältnis der Datensätze mit eingehaltenen Regeln und aller Datensätze darstellt, existiert ein weiterer Kontrollmechanismus und vereinfacht das Erkennen von fehlerhaften Datensätzen erheblich.[8]
Dieses Kontrollsystem dient dazu, grobe logische Fehler, wie zum Beispiel Bruttoverkaufspreis < Nettoverkaufspreis, frühzeitig und ohne großen Aufwand zu erkennen.
Data Governance
Data Governance beschreibt einen Ordnungsrahmen, der benötigt wird, wenn Daten im Unternehmen als strategische Ressource bewertet werden. Dieser Ordnungsrahmen regelt die Verantwortlichkeiten für die Erstellung, Pflege und Nutzung der Daten und ist gerade dann wichtig, wenn Daten Abteilungs- oder sogar Funktionsgrenzen übergreifend genutzt und bearbeitet werden. Dies ist zumeist bei Stammdaten zu Materialien, Kunden, Lieferanten und Mitarbeitern der Fall. Diese Regelung führt zu geordneteren Abläufen und verringert die Fehlerquote im Datenmanagement, da es durch die Standardisierung innerhalb des Unternehmens ein einheitliches Verständnis sowie eine einheitliche Interpretation der Daten gibr.[9]
Ein zentraler Bestandteil beim Data Governance ist das Erstellen und Zuteilen von Rollen. Die erste der drei wichtigsten Rollen ist die des Data Owners. Dieser hat die Verantwortung über die Definition der Datenobjekte und legt die Regeln für die Datenqualitätsmessung fest. Typischerweise fällt die Erfassung der Daten in den Aufgabenbereich des Data Owners.
Eine weitere wichtige Rolle ist die des Data Stewards. Die Definition und die Einhaltung des Qualitätscontrollings fallen in seinen Aufgabenbereich.
Der Datennutzer ist die dritte Rolle und der Verwender der Daten. Dieser verlässt sich darauf, dass die Qualität der Daten seinen Anforderungen entspricht.
Bei der Implementierung einer Data Governance ist es wichtig, die Rollenzuteilung möglichst effektiv zu gestalten und dabei auf eine sinnvolle Verteilung auf die verschiedenen Geschäftsprozesse, Standorte und Unternehmensfunktionen vorzunehmen. Es ist wichtig, eine gesunde Balance zwischen der Funktionsfähigkeit der Data Governance und den Auflagen bei wertschöpfenden Tätigkeiten im Unternehmen zu finden.[10]
Data Quality by Design
Ähnlich wie der Ordnungsrahmen bei der Data Governance hilft eine Daten Architektur grundlegenden Problematiken vorzubeugen. Gerade in großen Konzernen existieren meist eine Vielzahl von Anwendungsprogrammen, welche sich in der Art und Weise, Datenbanken zu erstellen, unterscheiden. So kann es unter Umständen zu syntaktischen und semantischen Problemen kommen, die eine effektive Arbeit mit den Daten erschweren oder sogar unmöglich machen. Eine weitere Problematik ist die Übersichtlichkeit der unterschiedlichen Programme. Meist ist es nur schwer möglich, schnell und einfach herauszufinden, wo welche Daten gespeichert sind.
Eine aufgeräumte und übersichtliche Datenarchitektur schafft hier Abhilfe.[11]
Datenpflegeprozesse
Die durchgehende Sicherstellung der Datenqualität erfordert eine intensive und gründliche Pflege. Dies ist jedoch nicht bei allen Daten einfach zu bewerkstelligen. So finden Stammdaten aufgrund ihrer Natur in einer Vielzahl von Prozessen und Abteilungen Verwendung und sind unter Umständen auch entsprechend umfangreich. Der Data Owner im Unternehmen hat vor diesem Hintergrund die Aufgabe, einen durchgängigen Datenanlage- und Datenpflegeprozess zu definieren und umzusetzen.[12]
„First Time Right“-Prinzip
Die Etablierung eines „First Time Right“- Prinzips hat sich im Gegensatz zu einem zentralen nachgelagerten Datenqualitätsprozess durchgesetzt und vertritt die Auffassung, dass Daten möglichst bereits bei Erfassung, also bei der Quelle, auf ihre Richtigkeit kontrolliert werden. Das Ziel dieser Vorgehensweise ist, bereits bei der Erfassung und Ersteingabe in das System eine hohe Datenqualität zu gewährleisten und somit den Aufwand für die Nachbearbeitung möglichst gering zu halten.[13]
1.3. Implikationen der Digitalisierung
„Die Digitalisierung des Industriebetriebs führt dazu, dass Unternehmen mit Daten wachsenden Aufkommens, unterschiedlichen Typs und verschiedenster Qualität umgehen müssen."[15] Der erste Schritt in diese Richtung ist das Erfassen einer heterogenen Datenlandschaft, um anschließend die Anforderungen an das Qualitätsmanagement abzuleiten. Eine einfache Möglichkeit zur Erstellung einer Datenlandkarte ist die Aufteilung der Daten in Nukleus-Daten, Community-Daten und der Big Data.
Nukleus Daten
Bei den Nukleus-Daten handelt es sich (speichertechnisch) um einen sehr kleinen Teil, der die elementarsten Daten des Kerngeschäfts des Unternehmens wiederspiegelt. Dazu gehören beispielsweise Kundenstammdaten, Produktstammdaten sowie Daten zu Mitarbeitern, Produktionsanlagen und der Produktion selber.[16]
Community Daten
Community-Daten beschreiben Daten, die innerhalb der Anwendungsdomäne, also zwischen mehreren Unternehmen oder sogar Nationen gemeinschaftlich definiert werden. Hierzu gehören standardisierte Daten, wie Währungs- und Ländercodes oder einheitliche Produktidentifikationsschlüssel. Diese Daten sind etwas umfangreicher als die Nukleus-Daten. Ein effizientes Management ist nur bedingt und nur unter Umständen möglich.[17]
Big Data
Die Big Data beschreibt die Gesamtheit aller Daten, die mit dem Unternehmen in Beziehung gebracht werden können. Diese Daten zeichnen sich durch eine hohe Frequenz und einem hohen Aufkommen in unterschiedlicher Form aus und sind daher nahezu unmöglich, effizient und effektiv zu managen. Wie der Name „Big Data“ bereits impliziert handelt es sich dabei um teilweise extrem große Datenmengen, die sich nicht selten in Tera- oder Zettabytes ausdrücken. Beispiele für Daten aus der Big Data sind unter anderem Datenpakete über Wetterbedingungen und Verkehrssituationen sowie Daten über Rückrufaktionen oder Sensor- und Zustandsdaten.[18]
Die Heterogenität der Daten in den drei Kategorien führt dazu, dass sich die Werkzeuge zum Datencontrolling nicht im gleichen Maße bei allen Kategorien verwendet werden können. Die zuvor beschriebenen Werkzeuge eignen sich maßgeblich für das Controlling der Nukleus Daten, welche den höchsten Wert für das Unternehmen darstellen. Eine Analyse der Übertragbarkeit auf die anderen Kategorien zeigt Handlungsbedarf.[19]
Da die Werkzeuge für eine Überwachung der Nukleus-Daten entwickelt wurden, sind diese auch sehr gut für diese Aufgabe verwendbar. Bei einem Transfer auf die Community-Daten wären diese wahrscheinlich weniger effektiv, würden aber dennoch ein sinnvolles Controlling ermöglichen. Ein Controlling der Big Data ist jedoch mit diesen Werkzeugen nicht möglich, da alleine die Menge der Daten ein effektives Controlling mit den beschriebenen Werkzeugen unter Berücksichtigung des Kosten-Nutzen-Prinzips nicht möglich ist.
1.4. Fazit
Die Digitalisierung ist ein fortschreitender, sich schnell entwickelnder Prozess, mit großem Einfluss auf jeden Bereich. Bezogen auf den wirtschaftlichen Teil ist durch diesen Prozess ein neues strategisches Gut entstanden, welches eine immer größer werdende Bedeutung hat.
Das Datenqualitätsmanagement wird dadurch ein immer wichtiger Bestandteil im Controlling eines Unternehmens einnehmen. Es gibt bereits einige Möglichkeiten, die Qualität von Daten effektiv und effizient zu überwachen und zu steuern. Diese Werkzeuge, Methoden und Verfahren lassen sich jedoch nicht auf die ganze Datenlandkarte anwenden, obwohl die wichtigsten Bereiche abgedeckt sind. Es bleibt abzuwarten, ob der strategische Wert der Big Data mit einem effektiven Ansatz unter Berücksichtigung des Kosten-Nutzen-Prinzips einen erheblichen Aufschwung erlebt.
2. Quellenverzeichnis
- [1] Vgl. Otto & Legner (2016), Nr. 10, S. 550
- [2] Vgl. Otto & Legner (2016), Nr. 10, S. 550
- [3] Vgl. Otto & Legner (2016), Nr. 10, S. 551
- [4] Vgl. Wang (1998), S. 58
- [5] Vgl. Ofner, Otto & Österle (2013) S. 4 ff.
- [6] Vgl. Otto & Legner (2016), Nr. 10, S. 550
- [7] Vgl. Otto & Legner (2016), Nr. 10, S. 552
- [8] Vgl. Otto & Legner (2016), Nr. 10, S. 552
- [9] Vgl. Otto & Legner (2016), Nr. 10, S. 552- 553
- [10] Vgl. Weber (2009)
- [11] Vgl. Schmidt (2010), S. 97 ff.
- [12] Vgl. Otto & Legner (2016), Nr. 10, S. 553- 554
- [13] Vgl. Otto & Legner (2016), Nr. 10, S. 554
- [14] Vgl. Otto & Legner (2016), Nr. 10, S. 552
- [15] Otto & Legner (2016), Nr. 10, S. 554
- [16] Vgl. Otto & Legner (2016), Nr. 10, S. 554
- [17] Vgl. Otto & Legner (2016), Nr. 10, S. 554
- [18] Vgl. Otto & Legner (2016), Nr. 10, S. 554
- [19] Vgl. Otto & Legner (2016), Nr. 10, S. 554 - 555
3. Literaturverzeichnis
- Ofner, M., Otto, B., & Österle, H. (12 2013). A Maturity Model for Enterprise Data Quality Management. Enterprise Modelling and Information Systems Architectures, S. 4 - 22.
- Otto, B., & Legner, C. (10 2016). Datenqualitätsmanagement für den Industriebetrieb. Best Practices und Implikationen der Digitalisierung. Controlling - Zeitschrift für Erfolgsorientierte Unternehmenssteuerung, S. 550-557.
- Schmidt, A. (2010). Entwicklung einer Methode zur Stammdatenintegration. Universität St. Gallen.
- Wang, R. (1998). A Product Perspective on Total Data Quality Management. Communications of the ACM, S. 58 - 65.
- Weber, K. (2009). Data Governance-Referenzmodell. Universität St. Gallen.
Verfasser: Jan Fockenbrock