22 februari 2013 -
Door slechte datakwaliteit voldoen financiële instellingen niet aan de wet- en regelgeving en maken zij bedrijfsbeslissingen op basis van verkeerde informatie. Gebrekkig inzicht in de kwaliteit van data, leidt tot onvoldoende inzicht in het risicoprofiel van een organisatie en schijnveiligheid. Financiële instellingen lopen daarbij het risico niet te voldoen aan de eisen van bijvoorbeeld Basel en Solvency II.
Dit blijkt uit een studie van Peter Berger, Manager Financial Services Industry bij Protiviti. Berger won hiermee de NBA VRC Scriptie Prijs. Naast gebrekkig inzicht in de kwaliteit van data, ontbreekt het ook aan een structurele oplossing om datakwaliteit op de lange termijn optimaal te houden. Hierdoor kost het management en directie onnodig veel tijd en geld om de juiste informatie te verkrijgen of om te voldoen aan de steeds strengere eisen van toezichthouders. Directie en management van financiële instellingen moeten data beschouwen als een essentieel onderdeel van hun bedrijfsstrategie. Peter Berger: "Voor financiële instellingen - die volledig gebaseerd zijn op data - is data van goede kwaliteit cruciaal. Hoe hoger de kwaliteit, hoe groter de effectiviteit en hoe meer kosten bespaard kunnen worden. Bedrijven kunnen sneller inspelen op risico"s en dus op kansen. Ze begrijpen hun klanten en de markt beter en zijn in staat hier veel sneller op in te spelen met bijvoorbeeld productinnovatie."
Datavervuiling
Datavervuiling begint al wanneer data bij organisaties binnenkomt: klantdata, productvoorwaarden, onderpanden, verzekerde objecten et cetera. De vervuiling wordt bijvoorbeeld veroorzaakt door slecht ingerichte processen, maar ook doordat de organisatie zich er simpelweg niet bewust van is. Daarbij veroudert de data snel. Bij met name banken en verzekeraars is het risico tot datavervuiling groot omdat zij complexe producten hebben en met verschillende verouderde systemen werken. "Data wordt uiteindelijk omgezet naar informatie; op basis daarvan nemen directie en management beslissingen. Verkeerde data levert verkeerde informatie op. Dat betekent dat aannames worden gedaan en beslissingen dus worden genomen op basis van onjuiste informatie", aldus Berger. Directie en management weten volgens Berger vaak niet wat de kwaliteit van data is, of ze erop kunnen vertrouwen en wie er uiteindelijk verantwoordelijk is voor datakwaliteit.
Wie is verantwoordelijk?
Alhoewel IT een belangrijke rol speelt bij datamanagement is het van groot belang hen niet verantwoordelijk te stellen. De gehele organisatie moet zich bewust zijn van het belang van optimale datakwaliteit, te beginnen bij directie en management. "De CIO kan een belangrijke rol spelen om een goed framework te implementeren, maar uiteindelijk moeten alle afdelingen en functies hun verantwoordelijkheid nemen. Dan pas kan data waarde toevoegen aan je organisatie", aldus Berger.
Bedrijven moeten allereerst bepalen wat hun core business is en dan pas welke data en framework nodig zijn, in plaats van andersom. Berger: "In veel gevallen kun je gebruik maken van bestaande structuren. Een valkuil is om een extra administratie- of managementlaag te creëren om te voldoen aan regelgeving, terwijl deze geen waarde toevoegen aan de organisatie."
Opbouw framework
Een data framework moet opgebouwd worden met simpele en overzichtelijke bouwstenen. Dit legt de basis voor een goede data-infrastructuur en kwaliteitsstandaard die vervolgens top down geïntegreerd kan worden in de volledige organisatie. Vervolgens moet datakwaliteit continu gemonitord en bewaakt worden. Berger: "Het implementeren van een goed data framework kost tijd, maar levert veel op. Het is tijd om datakwaliteit te beschouwen als een continue aandachtspunt en vast onderdeel van de dagelijkse praktijk."