Damit Mitarbeiter in Unternehmen Wertschöpfung generieren können, sind sie auf Daten mit entsprechender Qualität angewiesen. Die Basis dafür bilden die sogenannten Stammdaten. Es gibt Kunden-, Artikel-, Materialstammdaten usw. Diese sind grundlegend in zentralen wertschöpfenden Prozessen. Aus diesem Grund ist es notwendig, die Stammdaten hochwertig zu halten. Nur dadurch kann ein Unternehmen, effizient die Kunden bedienen und erfolgreich am Markt agieren. In diesem Beitrag stelle ich Ihnen drei Top Sünden vor, die sich in ihren Daten spiegeln. Dazu erhalten Sie Lösungsansätze, um diese Sünden in Zukunft zu vermeiden. Damit ihr Unternehmen die Flexibilität und Effizienz hoch halten kann.
Was sind Sünden in Unternehmen
Bevor wir starten, möchte ich ein Gemeinsames Verständnis für das Wort Sünde schaffen. Das Wort Sünde ist, je nach Hintergrund den man mitbringt, unterschiedlich belegt. Meine Definition ist weder emotional noch religiös behaftet. Sünden sind: die Versäumnisse, Probleme, Fehler, Lücken, Unverantwortlichkeiten, Abkürzungen, Nichtwissen, Bequemlichkeiten usw. die in Unternehmen stattfinden. All das Fasse ich unter dem Begriff Sünde zusammen und meine ich, wenn ich von Sünden spreche oder schreibe. Ich bitte Sie darum, diesen Beitrag durch die Brille dieser Definition zu lesen.
Da wir die Basis jetzt haben, starten wir mit Top Sünden die Sie unbedingt vermeiden sollten und in Zukunft hoffentlich umgehen😊
Top Sünde: Workarounds und Überganglösungen
Immer wieder gibt es Situationen in denen die Prozesse nicht richtig auf die Infrastruktur abgestimmt sind. Sei es nach Anpassungen von Prozessen oder Systemen, Fehler in Systemen oder Code- Anpassungen die zu Problemen führen. In solchen Situationen findet man eine Übergangslösung oder einen Workaround. Es werden dann Daten in Felder eingetragen, wo sie eigentlich nicht hingehören oder temporäre Systemanpassungen gemacht, um zu Überbrücken. Ist das Problem behoben, ist wichtig, dass nicht einfach zum Normalbetrieb übergegangen wird. Wichtig ist, die Daten im Nachgang zu bereinigen, die während der Übergangslösung nicht entsprechend bearbeitet wurden. In naher Zukunft, werden sonst Informationen nicht gefunden oder falsch bearbeitet. Was in ferner Zukunft noch für Überraschungen warten, kann ich gar nicht alles aufzählen. Je nachdem wie sich die Systeme und Prozesse entwickeln, kann es zu sehr unschönen Konstellationen kommen, die komplexe und aufwendige Bereinigungen mit sich bringen.
Ich empfehle in ihrem Unternehmen, nach den Übergangslösungen die betroffenen Daten zeitnah zu korrigieren, damit Sie in Zukunft, die Daten im normalen Prozess korrekt verarbeiten und keine weiteren Aufwände mehr haben.
Top Sünde: Fehlerhafte Schnittstelle
Ein weiteres Thema das nicht unterschätzt werden darf, sind fehlerhafte Schnittstellen. Es fängt meist schon mit den Verantwortlichkeiten an. Vor allem wenn die Programmierung der Schnittstelle von externen Partnern durchgeführt wird. Es fühlt sich niemand so richtig verantwortlich und entsprechen halbherzig wird leider auch getestet. Man hat es mit der klassischen Verantwortungsdiffusion zu tu; jeder verlässt sich auf den Anderen und gibt die Verantwortung dadurch ab. Das Problem dabei ist, dass über die Schnittstelle regelmässig, viele Daten ausgetauscht werden. Wenn sich da ein Fehler einschleicht, betrifft es viele Daten. Die Aufräumarbeiten und der angerichtete Schaden sind dann entsprechend gross.
Ich empfehle bei Schnittstellen Anpassungen die Verantwortung genau zu regeln und mit genau spezifizierten Use Cases ausführlich zu testen.
Top Sünde: Unsaubere Daten Migration
Ein Thema das wahrscheinlich fast alle kennen, die täglich mit Daten im Unternehmen arbeiten: Fehlerhafte Daten durch Daten Migrationen. Mich persönlich überrascht es immer wieder, wieso es immer noch so viele Migrationen gibt, die schlecht durchgeführt werden. Da gibt es Umlautprobleme, fehlende Datensätze, falsche Mappings usw. Das alles wird ins Neue System übernommen und erschwert vielen Mitarbeiter die tägliche Arbeit über Jahre. Dabei sind Migrationen die Gelegenheit Altlasten aus ihrem System zu eliminieren. Das Korrigieren und Migrieren von Daten, ist eine eigene Disziplin in der Informatik, die spezielle Skills erfordert. Es braucht dazu Experten die sich auskennen und mit der nötigen Sorgfalt und Umsicht die Arbeiten ausführen. Möchten Sie nicht jahrelang immer mit fehlerhaften Daten aus der Migration abmühen, lohnt es sich erfahrene Datenspezialisten einzubeziehen. Dieser kann die Daten auch im Nachgang noch korrigieren, damit sie eine saubere Grundlage für ihr Tagesgeschäft haben
Meine Empfehlung ist, bei grossen oder komplexen Daten Migrationen, einen Datenexperten ins Projekt einzubinden, der Erfahrung hat und weiss wo die Knackpunkte liegen.
Die Sünden in den Daten kommen irgendwann an die Oberfläche
Aufgrund meiner Erfahrung kann ich ihnen nur wärmstens ans Herz legen, sorgfältig mit ihren Daten umzugehen. Es behindert nicht nur die Mitarbeiter bei der täglichen Arbeit, das spüren auch ihre Kunden und das Management, welches aufgrund von nicht fundierten Daten, Entscheidungen treffen muss.
Bei meinen Schulungen und Sensibilisierungsvorträgen zum Thema Daten Qualität betone ich immer wieder: alle Sünden in den Daten kommen, irgendwann an die Oberfläche. Ich selber, habe schon Daten korrigiert, bei denen die Fehlerursache über 10 Jahre zurücklag. Egal wie alt die Fehler in den Daten sind, sie holen einem ein. Das können Sie mir glauben.
Es lohnt sich die Datenfehler so früh wir möglich zu korrigieren, da man noch weiss, was genau gemacht wurde und der Aufwand sich dadurch in Grenzen hält. Natürlich können die Fehler im Nachgang noch korrigiert werden. Es lohnt sich immer eine saubere Daten Grundlage zu schaffen. Falls Sie diese Themen auch kennen und angehen möchten, freue ich mich über ihre Kontaktaufnahme. Melden Sie sich unverbindlich über das untenstehende Formular:
Mit der grossen Digitalisierungswelle, rückten die Daten und ihre Qualität wieder ins Zentrum. Viele Firmen prüfen Vorhaben um hochwertige Daten Qualität zu etablieren. Doch leider folgt auf die anfängliche Euphorie dann bald die grosse Ernüchterung. Laut einer aktuellen BARC Studie zögern viele Unternehmen Initiativen zu starten, weil diese als zu übermächtig, aufwendig und unkalkulierbar erscheinen. Aber es muss nicht immer die Rolls Royce Variante sein. Mit einer schlanken Lösung, einem Daten Management light, ist ein proaktives managen der Daten möglich. Welche konkreten Schritte dafür notwendig sind, habe ich im Beitrag für Sie zusammengefasst.
Die Grundlage schaffen: Daten Qualität, KPI’s und Regeln definieren
Die Grundlage um die Daten zu managen, ist zu definieren, wann die Daten eine gute Qualität aufweisen. Dazu gilt es herauszufinden, welche Teams die Daten im operativen Geschäft fachlich bearbeiten oder nutzen. Alle diese Stakeholder haben Ansprüche an die Daten, die sorgfältig abzuklären sind. Erst wenn alle Bedürfnisse bekannt sind, kann eine solide Definition von guter Daten Qualität erarbeitet werden.
Sind die Anforderungen an gute Daten Qualität bekannt, können im nächsten Schritt KPI’s definiert werden. Dazu werden Wertebereiche festgelegt, wann die Daten Qualität noch gut ist und wann etwas unternommen werden muss. Wichtig ist auch hier, die Bedürfnisse aller Stakeholder abzuholen. Die KPI’s sind das Fundament für konkrete Regeln, um die Daten Qualität zu messen. Bei den Regeln gilt es zu definieren, welcher Datenausschnitt geprüft wird. Sind es zum Beispiel alle aktiven Kunden? Und wie genau sind aktive Kunden definiert? Die zu messenden Daten sind konkret auszuarbeiten, damit am Schluss das Richtige, richtig gemessen wird.
Die Definition von guter Daten Qualität, die KPI’s und Regeln sollten dokumentiert und möglichst allen im Unternehmen zugänglich sein. So können Missverständnissen und Missinterpretationen vorgebeugt werden. Die Definitionen können intern auf einer zentralen Plattform oder in einem öffentlichen Netzlaufwerk abgelegt sein.
Die technischen Voraussetzungen für das Daten Management light
Sind die Regeln für die Messung der Daten Qualität ausgearbeitet, ist es Zeit für die technische Umsetzung. Dazu sind die entsprechenden Verantwortlichen aus der IT beizuziehen. Als erstes wird das System definiert, auf dem die Messregeln ausgeführt werden um die Daten Qualität zu prüfen. Im Besten Fall gibt es ein Daten Master System. Um das Ganze nicht unnötig kompliziert zu machen, sollten alle Daten-Qualitäts-Messungen auf demselben System ausgeführt werden.
Im Grundsatz gilt es zu klären, welche Optionen es gibt die Regeln auszuführen. Die Lösung kann automatisiert, teilautomatisiert oder manuell sein. Es sollte entsprechend den Möglichkeiten, Ressourcen und Aufbau der Infrastruktur im Unternehmen umgesetzt werden.
Im Zusammenhang mit den Regeln ist zu konkretisieren, wie das Resultat der Regelmessung genau aussieht. Enthält es alle Datensätze mit einer entsprechenden Kennzeichnung oder nur die Daten mit den Qualitätsverletzungen? Welche Informationen werden weiter benötigt? Machen wir ein Beispiel mit Datensätzen bei denen die Anrede fehlt. Reicht es, nur die eindeutige ID für den entsprechenden Datensatz zu erhalten oder sollte zusätzlich der vollständige Name und Geschlecht ausgegeben werden? Für jede Regel ist sorgfältig auszuarbeiten, welche Informationen ausgegeben werden sollen.
Ein weiterer Punkt ist, in welchem Format die Resultate der Regeln ausgegeben und zur Verfügung gestellt werden. Soll es in einem txt.-File oder Excel ausgegeben werden? Wird es per E-Mail verschickt oder in einem Laufwerk abgelegt? Für alle diese Themen ist in enge Zusammenarbeit von fachlichen und technischen Bereichen notwendig.
Um einen Überblick zu haben, wie die Daten Qualität sich über die Zeit entwickelt, sollten die Resultate der Messungen transparent und möglichst allen zugänglich sein. Auszuarbeiten sind der Automatisierungsgrad und die Plattform für die Darstellung der Resultate. Die Lösung sollte so definiert werden, dass möglichst viele im Unternehmen den Status der Daten Qualität einsehen können.
Rollen und Verantwortlichkeiten im Daten Management light
Last but not least gilt es die Rollen festzulegen. Grundsätzlich sind drei Rollen notwendig. Diese haben, je nach Umsetzung einen unterschiedlichen Umfang.
Auf der technischen Seite braucht es einen Zuständigen für die Ausführung der Regeln und das Bereitstellen der Resultate.
Der Fachbereich ist verantwortlich für die Prüfung der Resultate und Einleitung von Massnahmen bei unzureichender Daten Qualität.
Die dritte Rolle ist dafür zuständig, die Resultate der Qualitätsmessungen transparent und möglichst allen im Unternehmen zugänglich zu machen.
Die Rollen können je nach Organisation und Aufbau des Unternehmens anders geschnitten sein. Im Fall einer automatisierten Lösung können Rollen wegfallen. Bei einem Ausfall oder Problemen muss aber klar geregelt sein, wer die Verantwortung für den jeweiligen Bereich hat.
Die Genialität vom Daten Management light
Mit dieser schlanken Struktur, etablieren Sie in ihrem Unternehmen die Essenz von einem nachhaltigen Daten Management. Das geniale am Daten Management light ist, dass mit dieser schlanken Lösung die Daten proaktiv gemanaged und einen hohen Mehrwert erzeugt wird. Im Unternehmen wird das Daten Management schrittweise etabliert und erhält dadurch mehr Rückhalt. Mit dem Daten Management light ist es nicht schon von Beginn an nötig, eine allumfassende Daten Management Initiative zu starten. Sondern man fängt mit dem Kern an und baut es dann zur gegebenen Zeit und bei Bedarf (vielleicht sogar mit ganz viel Unterstützung aus dem Management) einfach aus.
Möchten auch Sie das Daten Management light in ihrem Unternehmen aufbauen?
Wenn Sie Unterstützung möchten um möglichst effizient und effektiv ihr Ziel zu erreichen, helfe ich Ihnen gerne. Melden Sie sich für ein unverbindliches Kennenlerngespräch unter: info@daten-management.ch
Wir befinden uns in einer schnelllebigen Zeit in der so viele Daten produziert werden wie noch nie zuvor. Die Anzahl Daten die Unternehmen produzieren nimmt jährlich zu. Damit die Daten ein Unternehmen unterstützen und nicht behindern, ist es zentral, diese nachhaltig zu managen. Wieso ein gut funktionierendes Daten Management zentral ist und welche wichtigen Vorteile es hat, erfahren Sie in diesem Beitrag.
Mit hochwertigen Daten Kosten sparen
Ist Ihnen bewusst, dass ein ineffizientes Daten Management dazu führt, dass viele Mitarbeiter täglich neben ihrer eigentlichen Tätigkeit Daten bereinigen. Anstatt wertschöpfend tätig zu sein, investieren sie immer wieder Zeit in das Korrigieren von Daten. Solange kein strukturiertes Daten Management aufgebaut ist, werden nicht alle Fehler gefunden und es sind immer wieder manuelle Korrekturen nötig. Die daraus resultierenden schlechte Daten führen zu fehlerhaften Abwicklungen in Prozessen und unnötigen Mehraufwand.
Die Kosten die aufgrund von schlechten Daten entstehen beschreibt die 1-10-100 Regel von George Labovitz und Yu Sang Chang. Die Zahlen repräsentieren das Verhältnis der Kosten von schlechten Daten.
Konkret heisst das:
Die Kosten um die Daten Qualität präventiv hoch zu halten liegt bei x
Die Kosten um die schlechte Daten Qualität zu korrigieren ist 10 Mal x
Die Kosten von schlechter Daten Qualität, wenn nichts unternommen wird, liegt bei 100 Mal x
Mit einem sauberen Daten Management kann ein Unternehmen also immense Kosten sparen. Ist das Daten Management strukturiert aufgebaut, nimmt der Aufwand für die Korrekturen ab und werden sorgfältiger durchgeführt. Wodurch die Mitarbeiter sich vermehrt um ihre eigentlichen Aufgaben kümmern und mehr Wertschöpfung generieren können.
Gute Beziehungen und zufriedene Kunden mit hochwertigen Daten
Gute Kundenbeziehungen sind wichtig für jedes Unternehmen. Man möchte die Kunden effizient und reibungslos bedienen, um ein positives Einkaufserlebnis zu schaffen. Mit hochwertigen Daten ist dies sehr einfach möglich. Werden die Daten aber nicht effektiv gemanaged, weisen Sie eine minderwertige Qualität auf. Dies bekommen die Kunden zu spüren.
Es gibt Verzögerungen bei der Bestellung,
die Auskunftsfähigkeit ist beschränkt und
die Bewerbung des Kunden ist nicht richtig auf ihn zugeschnitten.
Die ineffiziente und fehlerhafte Bedienung wirkt sich negativ auf die Beziehung und Zufriedenheit der Kunden aus. Im schlechtesten Fall führt es zu Kundenabgängen und negativen Referenzen was sich dann in den Umsätzen widerspiegelt.
Motivierte und effiziente Mitarbeiter mit sauberen Daten
Die Mitarbeiter in Unternehmen haben ein Interesse daran ihre Arbeit möglichst gut zu machen. Sie verbringen einen grossteil ihrer Zeit am Arbeitsplatz und möchten einen wertvollen Beitrag leisten. Gibt es immer wieder Feuerwehrübungen die erfordern, dass sie schlechte Daten korrigieren müssen, anstatt sich um ihre eigentlichen Tätigkeiten zu kümmern, wirkt sich das auf die Motivation aus. Wenn es keine Bestrebungen gibt das Daten Management sauber aufzubauen und es müssen immer wieder die gleichen Fehler korrigiert werden, ist dies frustrierend. Die verminderte Motivation und der Frust der Mitarbeiter, wirkt sich auf alle Tätigkeiten aus— Auch auf die wertschöpfenden…
Wettbewerbsvorteile ergreifen und flexibel am Markt agieren durch qualitativ gute Daten
Gute Daten Qualität setzt voraus, dass sowohl die Infrastruktur als auch Prozesse sauber aufgesetzt und abgestimmt sind. Mit einer sauberen Daten Grundlage ist es möglich Trends zu erkennen und die entsprechenden Entscheide abzuleiten. Ein weiterer grosser Vorteil von hoher Date Qualität ist, dass Anpassungen an der Infrastruktur sehr effizient vorgenommen werden können und es deswegen keine Verzögerungen in Projekten gibt. Dadurch kann einerseits schnell auf Änderungen am Markt reagiert und andererseits neue Produkte oder Dienstleistungen zeitnah umgesetzt werden. Mit dieser Flexibilität können Unternehmen effizient am Markt agieren und sich entscheidende Wettbewerbsvorteile sichern.
Daten sind heutzutage ein Rohstoff der die Grundlage für wertschöpfende Prozesse bildet. Aus diesem Grund ist es von zentraler Bedeutung, dass die Qualität der Daten so hoch wie möglich ist. Schlechte Daten haben einen umfangreichen Einfluss auf zentrale Bereiche in Unternehmen. Ein gut funktionierendes Daten Management ist wichtig:
um sich erfolgreich am Markt zu behaupten,
für die Kunden- und Mitarbeiterzufriedenheit,
exzellente Produkte und Dienstleistungen zu erzeugen
und frühzeitig und effizient auf Änderungen zu reagieren.
Wenn Sie ganz Vorne am Markt mitmischen möchten, können Sie mittels qualitativ hochwertigen Daten, den entscheidenden Unterschied machen. Starten Sie gleich heute! Wenn Sie Unterstützung brauchen, freue mich darauf Sie kennenzulernen. Schreiben Sie mir auf: info@daten-management.ch
Treffen sie wiederholt auf denselben Fehler in den Daten, sollte der Ursache besser früher als später auf den Grund gegangen werden. Dies ist nicht immer ein einfaches Unterfangen. Je nachdem wo der Fehler liegt und wie er entsteht, kann die Ursachenforschung ziemlich komplex sein. Diese Anleitung hilft Ihnen Schritt für Schritt Fehler in den Daten zu eruieren und diese nachhaltig zu korrigieren. Nebenbei steigern sie so auch noch Daten Qualität.
Schritt 1: Den Ursprung finden
Als erstes gilt es festzustellen wo das Problem entsteht um danach das wie zu analysieren. Eine erste Anlaufstelle um den Ursprung zu finden sind Logs. Diese enthalten Informationen über die Bearbeitung und Entstehung der fehlerhaften Daten. Werden im Unternehmen die betroffenen Daten in mehreren Systemen * bearbeitet, ist es möglich, dass nicht in jedem Log die benötigten Informationen zu finden sind. Oft ist im Mastersystem das Log ausführlicher eingestellt und gibt Hinweise darauf, wo der Fehler entsteht. Ein weiteres wertvolles Hilfsmittel ist das Datenfluss Diagramm. Dieses gibt eine Übersicht, wo die Daten entstehen und in welchen Systemen sie bearbeitet werden. Sind keine hilfreichen Logs oder Informationen vorhanden, bleibt nichts anderes übrig, als den Fehler von System zu System, bis zu seinem Ursprung zurück zu verfolgen.
Schritt 2: Wie entsteht der Fehler
Konnte der Ursprung des Fehlers ermittelt werden, kann nun analysiert werden wie es dazu kam.
Es gibt verschieden Arten wie Daten Fehler entstehen. Dies kann sein:
Ist kein offensichtliches Muster der Entstehung des Fehlers erkennbar, sollten Spezialisten für die Analyse zugezogen werden. Im Besten Fall gibt es System oder Fach Verantwortliche, die bei der Suche unterstützen können.
Schritt 3: Das Ausmass ermitteln
Bevor es an die Lösung des Problems geht, sollte geprüft werden wie viele Daten fehlerhaft sind. Dabei ist wichtig zu prüfen, ob zu korrigierende Daten in mehr als einem System vorhanden sind. Je nach Komplexität des Fehlers, kann die Menge der fehlerhaften Daten selber analysiert werden oder es braucht auch hier Unterstützung durch Experten, die vertiefte System Kenntnisse haben.
Schritt 4: Eine Lösung evaluieren und umsetzen
Um eine möglichst effiziente und nachhaltige Lösung, für das fehlerhafte Muster zu evaluieren, sollte aus den vorherigen Schritten folgendes bekannt sein:
Wo ist der Fehler entstanden?
Wie entsteht der Fehler?
In welchen Systemen gibt es fehlerhafte Daten?
Wie viele Daten sind fehlerhaft?
Aufgrund dieser Informationen können Lösungsszenarien für die Bereinigung der Daten erarbeitet und diskutiert werden. Die Lösungen können sehr unterschiedlich sein. Bei einfachen Eingabefehler kann eine Schulung der Mitarbeiter ausreichen und die Menge manuell korrigiert werden. Ist der Fehler systematisch entstanden und die Menge der zu korrigierenden Daten gross, braucht es Unterstützung durch Spezialisten. Es ist empfehlenswert zuerst das System zu korrigieren, damit keine neuen fehlerhaften Daten mehr entstehen und anschliessend die Daten zu bereinigen. Bei einer grossen Menge fehlerhaften Daten sollten, diese automatisiert korrigiert werden. Falls die Daten Fehler in mehreren Systemen zu korrigieren sind, ist bei der Bereinigung zu beachten, konsistente Daten über alle Systeme zu erzeugen. Nicht zu vergessen ist, mit den Verantwortlichen und Nutzern gut abzustimmen, wann die Korrekturen durchgeführt werden.
Schritt 5: Überprüfung der Nachhaltigkeit
Ist die Korrektur abgeschlossen ist es empfehlenswert im Nachgang zu prüfen, ob keine neuen fehlerhaften Daten mehr entstehen. Dies sollte nicht nur unmittelbar nach der Korrektur, sondern auch ca. eine Woche später nochmal überprüft werden. So kann sichergestellt werden, dass der Fehler nachhaltig korrigiert und die Daten Qualität gesteigert ist.
*System beinhaltet in diesem Zusammenhang Hardware und Software
Der Prozess für die nachhaltige Bereinigung von fehlerhaften Daten ist hier nochmal grafisch zusammen gefasst:
Falls Sie Fragen haben oder Hilfe im Bereich
Daten Qualität,
Daten Migrationen,
Bereinigung von Fehler in den Daten
benötigen, freue ich mich über ihre Kontaktaufnahme. Klicken Sie dazu einfach hier
Im heutigen digitalen Zeitalter werden in Unternehmen ununterbrochen Daten erzeugt. Bei der Arbeit von Daten gibt es zwei Rollen:
der Datenlieferant und
der Datennutzer.
Der Datenlieferant stellt die Daten zur Verfügung oder erstellt diese. Der Datennutzer verwendet die ihm zu verfügung gestellten Daten als Grundlage für seine Tätigkeit. Meist sind die Rollen über verschiedene Abteilungen oder Teams verteilt. Das heisst ein Team erzeugt die Daten und stellt sie dem nächsten Team für die Nutzung zur Verfügung. Es kann jedoch sein, dass ein Mitarbeiter, je nach Tätigkeiten die er ausübt, verschiedene Rollen einnimmt. So kann zum Beispiel der Kundendienst einen Neukunden in der Rolle als Datenlieferant erfassen. In der Rolle als Datennutzer gibt er dem Kunden Auskunft über den Status seiner Bestellung.
Verschieden Sichten, Verschiedene Ansprüche
So unterschiedlich die Sichten der einzelnen Datennutzer auf die Daten sind, so verschieden sind auch die Qualitäts-Ansprüche an diese. Je nach Tätigkeit die der Mitarbeiter ausführt, können die gleichen Daten gute oder schlechte Qualität aufweisen. Fehlt zum Beispiel bei den Kunden Adress-Daten die Postleitzahl, ist die Daten Qualität für die Logistik ungenügend, da sie das Paket nicht verschicken können. Für den Telefonverkauf haben die Daten eine ausreichende Qualität. Sie können den Kunden über die Telefonnummer erreichen und ihrer Tätigkeit, trotz fehlender Postleitzahl, nachgehen.
Da jede Abteilung ihre eigene Sicht und Anforderungen an die Daten hat, stellen sie mit ihren Prozessen und Richtlinien ihre benötigte Qualität sicher. Sie betreiben ein Daten Qualitäts Management, dass auf ihre Bedürfnisse ausgerichtet ist. Das macht auf den ersten Blick auch Sinn. Die Mitarbeiter der entsprechenden Abteilungen, haben das Wissen über die Arbeitsprozesse und Tätigkeiten. Sie haben das Qualitäts- und Spezialisten Wissen um hohe Daten Qualität für ihren Bereich sicherzustellen. Und so ist jeder Mitarbeiter im Rahmen seiner Arbeit für die Qualität der Daten verantwortlich. Und wo liegt nun genau das Problem…
Alle sind für die Qualität verantwortlich, niemand fühlt sich verantwortlich
Die endgültige Verantwortung für das Qualitäts Management liegt bei der Unternehmensleitung. Wie alle Qualitäts Management Aufgaben ist auch das Daten Qualitäts Management ein abteilungsübergreifendes Thema. Nimmt die Unternehmensleitung ihre Verantwortung nicht wahr und etabliert kein effektives und übergreifendes Daten Qualitäts Management, ist dies ein Signal an die Mitarbeiter. Es zeigt, dass dem Thema nicht Gewicht gegeben wird.
In diesem Fall kommt die Paradoxe Eigenschaft von Qualitätsprozessen zum Tragen:
Jeder ist für die Daten Qualität verantwortlich
Da jeder für die Daten Qualität verantwortlich ist, führt dies zu Inaktivität und es fühlt sich niemand mehr wirklich dafür verantwortlich.
Fehlt die übergeordnete Abstimmung mit klar definierten Verantwortlichkeiten und Aufträgen, führt es dazu, dass die Aufgabe nicht mit der nötigen Sorgfalt und Umsicht wahrgenommen wird. Werden die Daten nur in Silos hinsichtlich ihrer Qualität bearbeitet, und der Gesamt Kontext nicht berücksichtigt, führt das zu wiederkehrendem und identischen Bereinigungsaufwand in unterschiedlichen Abteilungen. Ist das durchgehende Verständnis nicht vorhanden, ist mangelhafte Daten Qualität garantiert.
Das Daten Management ist im eine Unterstützungsaufgabe im Unternehmen, deren Ziel eine hochwertige Daten Qualität ist. Wie die Daten horizontal zwischen die Abteilungen der Organisation fliessen, sollte auch das Daten Management Abteilungsübergreifend agieren. Wichtig ist die verschiedenen Abteilungen mit ihren Prozesse, Sichten und Bedürfnisse zu verstehen. Nur so lässt sich effektiv die Daten Qualität steigern.
Aus der Software Entwicklung ist es den meisten bekannt, der Fehler ist umso kostengünstiger je früher dieser gefunden wird. Bei den Stammdaten ist das Problem ähnlich, es wird jedoch oft nur halbherzig thematisiert. Darum ist es höchste Zeit für eine Sensibilisierung zur Daten Qualität Prävention.
Stammdaten, die Basis der Wertschöpfungsprozesse im Unternehmen
Die Stammdaten (Kundenstämme, Artikelstämme, Bankenstämme usw.) bilden die Grundlage für die wertschöpfenden Prozesse. Daten sind in den Mittelpunkt aller geschäftlichen Aktivitäten gerückt. Sie haben einen direkten Einfluss darauf wie effizient die Mitarbeiter ihre Arbeit erledigen, welches Kundenerlebnis geschaffen wird und somit auch auf den Umsatz der das Unternehmen generiert. Die Stammdaten haben eine gewisse Statik und werden von verschiedenen zentralen Teams wie
im Unternehmen wiederkehrend verwendet. Ist ein Datensatz fehlerhaft, haben meist mehrere Teams wiederholt unnötigen Mehraufwand. Was zu längeren Durchlaufzeiten in der gesamten Supply Chain führt von den Bestell-, Rüst und Lieferzeiten. Auch ist das Kapital länger gebunden, weil die Lieferanten, Beschaffungszeiten und Losgrössen nicht optimal gesteuert werden können.
Bleibt schlechte Daten Qualität bestehen steigen die Kosten exponentiell
Und genau damit befasst sich die 1-10-100 Regel (Nicht die Nudel Regel;)) die 1992 von George Labovitz und Yu Sang Chang entwickelt wurde. Sie besagt im übertragenen Sinne, dass es
1 Franken kostet die Daten bei der Eingabe zu prüfen,
10 Franken die fehlerhaften Daten zu korrigieren und
100 Franken den fehlerhaften Datensatz zu belassen.
Die Zunahme der Kosten ist von einer Stufe zur nächsten exponentiell. Am günstigsten ist es in die Prävention zu investieren. Um Daten zu korrigieren, steigen die Investition exponentiell zu dem was in die Prävention hätte investiert werden müssen. Belässt man die fehlerhaften Daten kosten sie exponential zu dem was in die Korrektur zu investieren gewesen wäre. Die Kosten von fehlerhaften Daten in diesem Model, beschreibt aus meiner Erfahrung gut die versteckten Kosten dieser. Es wird oft lange von den Mitarbeiter sehr viel kompensiert. Das Problem ist, dass die inneffizienten Prozesse und verpassten Marktchancen oft erst bewusst werden, wenn die Daten Qualität sehr schlecht ist.
Der Eisberg von versteckten Daten Qualitäts Kosten
Die verstecken Kosten von schlechter Daten Qualittät kann gut mit einem Eisberg erklärt werden. Der grösste Teil, die Ursachen sind unter Wasser und die Auswirkungen sind der kleine sichtbare Teil über Wasser. Auswirkungen von schlechter Datenqualität können Kundenabgänge, Umsatzeinbussen, Reputationsschäden oder auch verpasste Marktchancen sein.
Ursache von schlechter Daten Qualität können einfache Eingabefehler, ungenügende Standards, Systemfehler oder auch ungenügend definierte Veranwortlichkeiten sein. Oft kann der Zusammenhang von der Auswirkung von schlechter Daten Qualität nicht mit dieser in Verbindung gebracht werden. Manchmal sind die Auswirkungen natürlich auf eine Kombination von Ursachen zurückzuführen. Deswegen ist es schwierig ist die eigentlichen versteckten Kosten von schlechter Daten Qualität zu quantifizieren. Aus diesem Grund geht es oft lange bis ein Unternehmen bereit ist, nachhaltig in Gute Daten Qualtität zu investieren. Dabei braucht es manchmal gar nicht so viel. Zu Beginn können regelmässige Stichproben schon, gute Hinweise geben, wo etwas verbessert werden soll.
Die Datenmenge nimmt jährlich um 40% zu
Im digitalen Zeitalter nimmt die Menge produzierter Daten laufend zu. Jährlich steigt die die Daten Menge in Unternehmen im Durchschnitt um 40% an. Dies führt dazu, dass wenn Daten Prozesse nicht sauber definiert bzw. abgestimmt sind, oder ein systemischer Fehler vorliegt, immer mehr fehlerhafte Daten in den Systeme hinzukommen. Somit verteuern sich die Daten Korrekturen laufend.
Es lohnt sich also früher als später in die Prävention beziehungsweise gute Daten Qualität zu investieren. Je früher begonnen wird in die Daten Qualität zu investieren desto günstiger ist es. Nicht nur in Bezug auf die Investitionskosten sondern auch in Bezug auf Prozesseffizienz, verpassten Verkaufs- und Marktchancen. Das sollte doch Motivation genug sein, in die Prävention von schlechter Daten Qualität zu investieren 😉
Wir verwenden Cookies auf unserer Website, um Ihnen das relevanteste Erlebnis zu bieten, indem wir uns an Ihre Präferenzen und wiederholten Besuche erinnern. Indem Sie auf "Akzeptieren" klicken, erklären Sie sich mit der Verwendung von ALLEN Cookies einverstanden.
Diese Website verwendet Cookies, um Ihre Erfahrung zu verbessern, während Sie durch die Website navigieren. Von diesen werden die als notwendig eingestuften Cookies auf Ihrem Browser gespeichert, da sie für das Funktionieren der grundlegenden Funktionen der Website unerlässlich sind. Wir verwenden auch Cookies von Drittanbietern, die uns helfen zu analysieren und zu verstehen, wie Sie diese Website nutzen. Diese Cookies werden nur mit Ihrer Zustimmung in Ihrem Browser gespeichert. Sie haben auch die Möglichkeit, diese Cookies abzulehnen. Das Ablehnen einiger dieser Cookies kann jedoch Ihr Surferlebnis beeinträchtigen.
Diese Cookies registrieren anonyme, statistische Daten über das Verhalten des Besuchers dieser Website und sind verantwortlich für die Gewährleistung der Funktionalität bestimmter Widgets, die auf dieser Website eingesetzt werden. Sie werden ausschließlich für interne Analysen durch den Webseitenbetreiber verwendet z. B. für den Besucherzähler.
Diese Cookies registrieren anonyme, statistische Daten über das Verhalten des Besuchers dieser Website und sind verantwortlich für die Gewährleistung der Funktionalität bestimmter Widgets, die auf dieser Website eingesetzt werden. Sie werden ausschließlich für interne Analysen durch den Webseitenbetreiber verwendet z. B. für den Besucherzähler.
Die Performance-Cookies sammeln Informationen darüber, wie diese Website genutzt wird. Der Betreiber der Website nutzt diese Cookies um die Attraktivität, den Inhalt und die Funktionalität der Website zu verbessern.
Die Performance-Cookies sammeln Informationen darüber, wie diese Website genutzt wird. Der Betreiber der Website nutzt diese Cookies um die Attraktivität, den Inhalt und die Funktionalität der Website zu verbessern.
Analytische Cookies werden verwendet, um zu verstehen, wie Besucher mit der Website interagieren. Diese Cookies helfen dabei, Informationen über Metriken wie die Anzahl der Besucher, Absprungrate, Verkehrsquelle usw. zu liefern.
Website erforderlich. Daher kann man sie nicht deaktivieren. Diese Art von Cookies wird ausschließlich von dem Betreiber der Website verwendet (First-Party-Cookie) und sämtliche Informationen, die in den Cookies gespeichert sind, werden nur an diese Website gesendet.
Erforderlicher lokaler Speicher, der Informationen über den Warenkorb des Website-Besuchers speichert, um Einkäufe über diesen Online-Shop zu ermöglichen.
Neueste Kommentare