Datenqualitätsmanagement für operative Daten

Dr. Manfred Hein, Leiter Qualitätsmanagement, emagixx GmbH; Markus Frommlet, Fachberater, Qualitätsmanagement, emagixx GmbH

Bestärkung durch neue EU-DSGVO

Aufgrund steigender regulatorischer Anforderungen rückt das Thema Datenqualitätssicherung bei Finanzinstituten immer stärker in den Fokus. Vielfach beschränken sich die Anstrengungen allerdings auf die für das Berichtswesen relevanten dispositiven Daten. Dieses Vorgehen ist – nicht zuletzt auch unter gesetzlichen Gesichtspunkten, wie z. B. der ab dem 25.05.2018 geltenden EU-DSGVO – nicht ausreichend. Nur die parallele Datenqualitätssicherung der im Kernbankensystem vorhandenen operativen Daten ermöglicht es Finanzinstituten, Haftungsrisiken zu minimieren und adäquat auf Marktveränderungen zu reagieren.

Die Grundlage der dispositiven Daten sind operativen Daten. Sie werden allerdings normiert, transformiert und verdichtet, um den Anforderungen des Berichtswesens gerecht zu werden. Mängel in der verwendeten Datengrundlage haben deshalb einen Effekt auf die Qualität der dispositiven Daten. Aufgrund der Aggregation sind sie dort allerdings schwer erkennbar und i. d. R. nicht mehr zu korrigieren, da hierfür eine feinere Granularität notwendig wäre.

Ein weiterer wichtiger Grund für die Sicherung der Qualität der operativen Daten ist, dass sich bestimmte gesetzliche Vorgaben nur so erreichen lassen. Zum Beispiel stärkt die am 25.05.2018 in Kraft tretende EU-DSGVO die Rechte des Verbrauchers auf ein Vergessen. Nicht rechtzeitig gelöschte Personendaten stellen dann ein erhebliches Haftungsrisiko dar, das nur durch eine hohe Qualität der operativen Daten begrenzt werden kann.

Ohne die Etablierung eines systematischen Datenqualitätsmanagements lässt sich diese Qualität bei den operativen Daten nicht erreichen. Bereits der Eingabeprozess birgt viele Fehlerquellen, wie die falsche oder unvollständige Erfassung. Hinzu kommt, dass sich die Anforderungen über die Zeit verändern. Beispielhaft sei hier das GwG erwähnt. Es schreibt in seiner jetzigen Version vor, dass der Geburtsort einer Person zwingend erfasst werden muss. Diese Forderung gab es früher nicht, so dass bereits erfasste Bestandsdaten nachgepflegt werden müssen oder den gesetzlichen Anforderungen nicht mehr genügen.

 SEMINARTIPPS

Prozess-Check MaRisk-Umsetzung, 16.04.2018, Berlin.

Datenrisiken im Risikomanagement, 17.04.2018, Berlin.

Prüfung Datenqualität, 18.04.2018, Berlin.

Datenrisiken im Meldewesen, 19.04.2018, Berlin.

IT-Strategien und IT-Governance in Praxis und Prüfung, 23.04.2018, Frankfurt/M.

Prozessprüfungen im Finanz- und Rechnungswesen, 25.04.2018, Köln.

Infos unter www.FC-Heidelberg.de

 

Für die Etablierung eines systematischen Datenqualitätsmanagements sind qualifizierte Ressourcen notwendig. Am Anfang muss definiert werden, welche Anforderungen es an die Datenqualität gibt. Neben der Regulatorik spielen hier auch interne Richtlinien eine wichtige Rolle. Für diese Aufgabe ist deshalb bankfachliches und bankspezifisches Wissen notwendig und damit die Involvierung von bankinternen Fachkräften. Moderierte Expertenrunden können dazu beitragen, diese ohnehin häufig stark beanspruchten Ressourcen nicht länger als notwendig zu binden. Die so definierten Anforderungen sollten möglichst zeitnah in Prüfungen überführt werden, die von einem Datenqualitätsmanagementsystem durchgeführt werden. Je flexibler und agiler dieses Prüfwerkzeug ist, umso einfacher ist die Überführung der Anforderungen in Prüfregeln und die Anpassung an neue Gegebenheiten. Eine Priorisierung der so gefundenen Auffälligkeiten im Datenbestand ist anzuraten, um sicherzustellen, dass die kritischen Mängel zuerst bearbeitet werden.

Ein gutes Prüfwerkzeug sollte die Bereinigungsmethoden Massenänderung, zentrale Bereinigung und dezentrale Bereinigung unterstützen. Massenänderungen werden automatisch durchgeführt und eignen sich für Auffälligkeiten, die keinen Interpretationsbedarf haben. Komplexere Fragestellungen mit mehreren Lösungsmöglichkeiten werden i. d. R. dezentral von qualifiziertem Personal bereinigt. Die fachliche Qualifikation ist hierbei wichtig, um eine falsche Bereinigung und damit eine Verschlimmerung des Mangels zu vermeiden.

Wenn die Mithilfe des Kunden notwendig ist, muss die Bereinigung dezentral erfolgen – hierbei handelt es sich aber i. d. R. nicht um eine große Anzahl an Fällen. Teil des systematischen Datenqualitätsmanagements ist es, Erfahrungen aus der Bereinigung an die Definition der Anforderungen zurückzuspielen und so dafür zu sorgen, dass die Prüfungen noch

genauer und zielorientierter werden.

PRAXISTIPPS

  • Setzen Sie sich frühzeitig damit auseinander, wie auch kurzfristig Datenqualitätsverbesserungen in den operativen Daten durchgeführt werden können.
  • Beseitigen Sie rechtzeitig inaktive Kunden aus Ihrem System. Dies ist natürlich aus Datenschutzgründen wichtig (EU-DSGVO), hilft aber auch, generell die Anzahl der Mängel geringer zu halten, da die Daten inaktiver Kunden i. d. R. nicht gepflegt werden und deshalb veralten.
  • Etablieren Sie einen kontinuierlichen Prozess zur Sicherung der Datenqualität. Stellen Sie hierbei insbesondere in der Anfangsphase sicher, dass Mitarbeiter mit bankfachlichem und bankspezifischen Know-how zur Definition der Anforderungen an die Datenqualität in ausreichendem Maße zur Verfügung stehen.
  • Achten Sie bei der Auswahl des Datenqualitätsmanagementsystems darauf, dass dieses eine hohe Flexibilität aufweist, da diese benötigt wird, um bankspezifische Besonderheiten und neue gesetzliche Bestimmungen schnell in Prüfregeln zu überführen.

 

image_printZur Druckversion!
0 Antworten

Hinterlassen Sie einen Kommentar

Wollen Sie an der Diskussion teilnehmen?
Feel free to contribute!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.