Print:

Datakwaliteit: een monster met vele koppen

Erik Schaap , Data management en Analytics specialist

LinkedIn profiel

Goede datakwaliteit raakt aan het wezen van een organisatie. De gevolgen van het gebruiken van onjuiste, niet tijdige of onvolledige gegevens kunnen desastreus zijn. Zeker voor organisaties die datagedreven willen worden of technologieën als AI en algoritmes voor hun bedrijfsprocessen willen inzetten. Wij vroegen Erik Schaap, Datamanagement en Analytics specialist en hoofddocent van de masterclass Datakwaliteit en data governance, naar de actuele issues, valkuilen rondom het borgen en het continu verbeteren van datakwaliteit in organisaties.

Waarom is het belangrijk om actief met datakwaliteit bezig te zijn?

Organisaties die het strategisch belang van informatie onderschrijven zullen structureel aandacht aan de kwaliteit van die gegevens moeten schenken. Immers, als de data niet aan de verwachtingen voldoet kunnen negatieve gevolgen als extra kosten, verlies aan vertrouwen in organisaties of zelfs boetes het gevolg zijn. De kwaliteit van data kan op veel plaatsen bij het verwerken van gegevens worden verstoord. Juist daarom adviseren wij een raamwerk om de vinger voortdurend aan de pols te houden en tijdig geïnformeerd te zijn in het geval van verstoringen in de kwaliteit van data.

En hoe kan het dat datakwaliteit vaak niet hoog op de bestuurlijke agenda staat?

In het algemeen gaan bestuurders uit van werkende systemen (‘anders kunnen we toch niet al vele jaren succesvol zijn’) en ligt de verantwoordelijkheid voor het correct verwerken van informatie bij de IT-afdeling. Het datakwaliteitsprobleem is echter een monster met vele koppen. Het achterhalen van de oorzaken van problemen is geen sinecure. De kennis van datakwaliteit en de urgentie van datakwaliteit schiet bij besturen vaak te kort, waardoor minder aandacht hiervoor is.

Wat zijn uitdagingen bij het meten van datakwaliteitsdimensies?

De grootste uitdaging bij het beoordelen van datakwaliteit is het definiëren ervan met behulp van datakwaliteitsdimensies. Denk aan dimensies als volledigheid, uniciteit, accuratesse, consistentie etc. De business bepaalt de eisen die aan deze dimensies worden gesteld. Door het gesprek met de business aan te gaan kan een stevig fundament onder het datakwaliteitsprogramma worden gelegd. Zo kan worden vastgesteld aan welke eisen de gegevens moeten voldoen. Bovendien is de omgeving van een organisatie veranderlijk, waardoor ook de eisen die de organisatie stelt aan data veranderen. Nieuwe wetgeving, bijvoorbeeld op het gebied van privacy, zorgt voor nieuwe bedrijfsregels die impact hebben op een groot aantal systemen.

Waar is datakwaliteit in een organisatie meestal belegd en onder welke bestuurlijke rol hoort datakwaliteit eigenlijk?

Omdat goede datakwaliteit raakt aan het wezen van een organisatie, is het van groot belang dat in het hogere management verantwoordelijkheid wordt genomen voor het datakwaliteitsbeleid. Omdat datakwaliteit in feite een business vraagstuk is, zien wij graag dat deze taak wordt belegd bij de CFO of CEO. In steeds meer organisaties neemt een Chief Information Officer of Chief Data Officer plaats in het bestuur met datakwaliteit in het portfolio.

Wat voor type organisatie en cultuur is nodig voor het borgen van datakwaliteit?

Het borgen van datakwaliteit in een organisatie is zeer specifiek. Afhankelijk van het type organisatie en de manier waarop de besluitvorming nu al gebeurt, kan een keuze worden gemaakt voor een centraal, decentraal of hybride model. Analyseer daarvoor eerst de huidige organisatiestructuur. Hoe onafhankelijk opereren de afdelingen of regio’s? Zijn er grote verschillen in de informatiebehoeften en doelen? Hoe verloopt de besluitvorming en de uitvoering van besluiten?

Wat zijn valkuilen bij het continu verbeteren van datakwaliteit?

Voor het continu verbeteren van datakwaliteit zul je een datakwaliteit strategie moeten implementeren die op den duur verankert moet zijn in de bedrijfscultuur. Dit is een langdurig proces met vele valkuilen waarvan de meest voorkomende zijn: het niet of niet meer voelen van urgentie, te weinig korte termijn successen en onvoldoende communicatie over de veranderingen.

Hoe kunnen ontwikkelingen als artificial intelligence, machine learning, data science bijdragen aan de kwaliteit van data?

Het meten en verbeteren van datakwaliteit gebeurt in het algemeen met gespecialiseerde, geautomatiseerde hulpmiddelen. De leveranciers van deze hulpmiddelen implementeren steeds vaker kunstmatige intelligentie (A.I.) en machine learning technieken om trends in de gegevens te ontdekken. In het algemeen geldt in organisaties dat de kennis van data science gemakkelijker toepasbaar wordt doordat de moderne tools toegankelijker zijn (citizen data scientists). Algoritmen kunnen te verwachtten waarden van metingen voorspellen en deze vergelijken met de werkelijke metingen. De voorkomende afwijkingen van het voorspellingsmodel kunnen vervolgens door data stewards beoordeeld worden. Dit geeft nieuwe inzichten in de gegevens en de mogelijke oorzaken en oplossingen van datakwaliteitsproblemen.

Wilt u meer kennis over datakwaliteit en het verankeren van datakwaliteit in de organisatie? Kom naar de masterclass Datakwaliteit en data governance. Erik Schaap en experts van Leaseplan, Rijkswaterstaat en Achmea nemen u mee bij het structureel borgen en verbeteren van de kwaliteit van data.

Verder lezen?

Laat uw e-mail achter en ontvang de brochure Masterclass Datakwaliteit & datagovernance direct in uw mailbox.