Hoe een tool voor gegevensbeheer met 20 indicatoren te evalueren (plus 1)

Hoe een tool voor gegevensbeheer met 20 indicatoren te evalueren (plus 1)

Klik voor meer informatie over auteur Michele Iurillo.

Soms kiezen grote bedrijven voor tools en technologieën die worden geleid door Gartner’s Magic Quadrant om “geen risico’s te nemen”, zonder te weten dat dit niet synoniem is met een garantie voor goede prestaties en gemakkelijke implementatie.

In de Gegevensbeheer scenario, er zijn grote leveranciers die een governance-tool in hun ecosysteem opnemen, bedrijven die kapitaal blijven aantrekken zonder echt klanten te hebben, en andere realiteiten die misschien specifieker zijn, weinig bekend en soms zeer effectief. De toekenning van “Gartner Stars” is vergelijkbaar met het krijgen van Michelin-sterren voor restaurants. Het winnen van deze sterren betekent onder een vergrootglas staan ​​en actief werken om uw positie te behouden, in het proces, waarbij u mogelijk de tevredenheid van uw klanten vergeet – meer aandacht voor marketing en minder over ontwikkeling (steek uw hand op als u dat niet denkt en geen verkoper bent).

Gegevens zijn de grootste troef van onze bedrijven. Je moet het managen of, zoals ik graag zeg, ‘doelmanagement’, dus als je nog geen DG-tool hebt gekozen, is het tijd om er een te zoeken – maar doe dit zonder exclusief te worden begeleid door Gartner, Barc, enzovoort.

Als expert raad ik aan om wat verder te kijken, en ik stel een reeks indicatoren voor om te beoordelen om de beste Data Governance-tool te evalueren en deze beslissing voor jezelf te nemen.

Allereerst moeten we duidelijk maken dat als het waar is dat alles begint met de metadata, een data governance tool geen metadata tool is. Het is de versmelting van een metadatatool met een BPM en met de aanwezigheid van een soort metadatacatcher-systeem.

Aan het einde van dit artikel laat ik u een eenvoudig Excel-blad achter om u te helpen bij het maken van uw evaluatie.

Hieronder zal ik aangeven welke indicatoren u moeten helpen bij het kiezen van de perfecte tool.

1. Meerdere huurders: De term “multi-tenancy software” verwijst naar een softwarearchitectuur waarin een enkele instantie van de software op een server draait en meerdere tenants bedient. Een belangrijk probleem bij bepaalde Data Governance-tools is het onvermogen om meer dan één instantie te beheren en de veelheid aan rollen en projecten. Qua rollen heeft de data-eigenaar van een bepaald project soms de rol van datasteward in een ander project of in een ander domein. Een DG-tool moet een multi-holdingsbenadering hebben. Het is verplicht!

2. Cloud-implementatie: Staat de tool cloudimplementatie toe? Zelfs als uw systeem deze implementatie niet nodig heeft, moet u vooruit denken. Is het compatibel met AWS, Azure en Google Cloud? Is het compatibel met uw opslagsystemen? Heeft u een implementatie in Docker of Kubernetes?

3. Gelicentieerd of open source: Tot een paar jaar geleden was het betalen voor een vergunning en het onderhoud ervan synoniem met solvabiliteit. Tegenwoordig geven veel bedrijven er de voorkeur aan om te wedden op open source-tools samen met gespecialiseerde professionele services, omdat deze tools vaak net zo een oplosmiddel zijn en niet zo gesloten als commerciële tools.

4. Open systeem of gesloten ecosysteem: Vaak markeert technologie onze keuzes op het gebied van software, waardoor het probleem van “spook-IT” ontstaat. Hoewel het normaal is om te proberen een wereldwijd technologisch kader te behouden, is dit bij grote bedrijven onmogelijk aan te nemen. Hoe meer ze proberen het systeem onder druk te zetten, hoe meer het ghost-IT-fenomeen verschijnt met alle beveiligingsproblemen die het met zich meebrengt. We weten echt niet of het huidige technologische ecosysteem over 5 jaar hetzelfde zal zijn. Experts raden aan dat een governance-tool volledig onafhankelijk is van de rest van de technologie (voor een agnostische benadering), aangezien het geen grote hoeveelheid bronnen nodig heeft omdat het werkt met metadata en niet met alle data. Het is bijvoorbeeld perfect denkbaar dat uw SAP-ecosysteem een ​​andere tool heeft.

5. Bruikbaarheid van de zakelijke woordenlijst: Het is noodzakelijk om te evalueren of u met de Data Governance-tool taxonomieën kunt maken, zakelijke termen kunt beheren en algemene zakelijke termen kunt importeren. De meeste bedrijven hebben werk dat is ontwikkeld in Excel of een andere tool zoals Confluence. De reden hiervoor is dat al het eerdere werk terug te vinden is. Als dit werk nog niet ontwikkeld is, kan je het beste kiezen voor een gemakkelijk en onmiddellijk hulpmiddel waarvoor bijvoorbeeld geen training of certificering nodig is om er gebruik van te kunnen maken.

6. Aangepast kenmerk: Hoe noemt en beschrijft de software aangepaste attributen? Naast het benoemen van het attribuut, is het belangrijk om een ​​definitie, een korte beschrijving (met een beetje achtergrond), een lange beschrijving (een paar alinea’s met meer diepgang), een voorbeeld en een veiligheidsclassificatie (die het beveiligingsniveau aangeeft, zoals openbaar, intern of vertrouwelijk). Sommige tools stellen ons in staat om op een open manier met sjablonen te werken, en dit is een groot voordeel. Controleer of uw suite kan werken met sjablonen, aangezien dit het werk veel sneller maakt.

7. Persoonlijke relaties: Houd bij het evalueren van aanpasbare relaties rekening met acroniemen, afkortingen, synoniemen, vervangingen / vervangingen (die verouderde termen aangeven), toegewezen activa, toegestane waarden (waarbij de zakelijke term aan bijbehorende referentiegegevens wordt gekoppeld) en gegevensbeleid en -regels. Controleer vooral of de tool versiebeheer heeft; het is belangrijk om te kunnen terugkeren of een term of een relatie te kunnen evalueren. De termen moeten volledig traceerbaar zijn om te weten “wie” het “wat” en “wanneer” heeft gewijzigd (dit is het BPM-gedeelte).

8. Gegevensbeheer: Gegevensbeheerders moeten artefacten zoals zakelijke voorwaarden, gegevensbeleid, gegevensstandaarden, Data kwaliteit regels, gegevenskwaliteit metrische gegevens, stamgegevensregels, stamgegevenstaken (bijv. duplicaten) en alle andere artefacten die volledig configureerbaar zijn (bijv. regelgeving). Goede vragen worden niet zo gemakkelijk beantwoord in het panorama van de metadatatool.

9. Aangepaste rollen: Aangepaste rollen kunnen gegevenseigenaren, DGO’s, datastewards, belanghebbenden, materiedeskundigen en -managers, externe auditors, enz. Zijn. Kies een tool die geen gesloten rollen heeft of, beter nog, roltemplates heeft, zodat u nieuwe criteria en regels op elk moment.

10. Autorisatieworkflows: Het is belangrijk om autorisatieworkflows te definiëren. U kunt bijvoorbeeld regionale managers, globale managers en IT opnemen in het geval van een multinationale toegangscode. Soms bieden sommige DG-tools een echt BPMS voor de definitie van workflows. Stel vragen zoals is deze term uit de woordenlijst de laatste? Wie heeft het gewijzigd? Wat is er gewijzigd? Is het een versie die is goedgekeurd door de DGO?

11. Hoofdgegevensregel: Evalueer of u met de tool regels voor gegevensverrijking kunt maken, regels voor gegevensvalidatie kunt maken, relaties tussen entiteiten kunt creëren, regels voor het matchen van records kunt maken, vertrouwensdrempels kunt vaststellen en regels voor recordconsolidatie kunt maken. Een goede vriend van mij zegt altijd dat als we masterdata moeten maken, we een datakwaliteitsprobleem hebben. Ik denk ook dat MDM met datavirtualisatie niet veel zin heeft, maar het is nog steeds een argument.

12. Data Lineage: Staat de tool u toe om de datalijn te documenteren, inclusief jobs die parallel lopen? Staat het een grafische visualisatie van de gegevensstroom toe? Heeft het RDA- en GDPR-compliance? Kun je oude COBOL-processen herstellen? Als we aan Data Governance denken, moeten we ons afstemmen op de echte processen van het bedrijf. We hoeven niets weg te gooien of iets te reconstrueren. Als iets werkt, moeten we het documenteren, maar het is niet altijd een gemakkelijke taak.

13. Impactanalyse: Zal ​​de tool een impactanalyse maken, specifiek voor de activa die zijn geïdentificeerd in de datalijn? Is het mogelijk om grafisch te visualiseren (met een graph-database) de gevolgen?

14. Hiërarchie van gegevensartefacten: Met de tool kunt u beleidsregels, regels, termen en referentiegegevens koppelen, inclusief automatisch rapporten genereren op basis van de metagegevens en het beheer ervan. Vanuit mijn perspectief betekent werken in Data Governance altijd de metadata verrijken, maar weten we echt wat deze metadata ons vertelt?

15. Profilering van verschillende gegevensbronnen: Dit omvat handmatige (SQL-scripts), geautomatiseerde (tools van leveranciers) en verschillende databronnen (ja, sommige COBOL ook) – niet alleen gestructureerde maar ook ongestructureerde data en vooral rapporten en rapportages (SAS, MicroStrategy, etc.). We kunnen niet weten hoe ons technologische ecosysteem er over 5 jaar uitziet, dus we kunnen niet weten welke databronnen we zullen gebruiken. De meest coherente oplossing zou zijn om alles te virtualiseren met tools zoals C3, Querona of Denodo.

16. Scorekaart gegevenskwaliteit: Onderschat de waarde van een scorekaart niet, die meetgegevens voor informatiebeheer, doelstellingen, periodieke statusupdates en basislijnen bevat. Uw tool moet de mogelijkheid hebben om basiskwaliteitsregels intern te gebruiken en in staat te zijn om verbinding te maken met externe Data Quality-engines. Als de tool geen goed datavisualisatiesysteem heeft, kan het daarvoor in ieder geval externe frontends gebruiken (zoals Power BI en Tableau).

17. Probleemregistratie en gegevenswaarschuwingen: Het gegevensprobleemlogboek moet de problemen volgen, de toegewezen beheerder, de toegewezen gegevens, de datum waarop is opgelost en de huidige status (bijv. Gesloten, beheerder praat met de juridische afdeling, enz.) Het gaat niet alleen om het genereren van een logboek, maar ook om een controleproces van probleemoplossing (met een ticketingsysteem of door te kunnen sturen naar externe tools zoals Jira, Confluence of Slack.)

18. Oplossingsproces voor gegevensproblemen: Zorg ervoor dat het probleembeheersings- en oplossingsproces volledig is gedocumenteerd (dit zijn we in veel gevallen ook verplicht).

19. Ondersteuning voor interne / externe audits: Elke opslagplaats moet een gegevenseigenaar hebben en zal worden gecontroleerd op naleving van specifiek gegevensbeheerbeleid, zoals 1) de aanwezigheid van een gegevenswoordenboek, 2) of de regels zijn gedocumenteerd en 3) wie de toegangscontroles bepaalt. De software moet rollen kunnen genereren voor externe auditors.

20. KPI’s voor gegevensbeheer: Er zijn veel mogelijke KPI’s in DG. Hier enkele ideeën: zakelijke woordenlijst aantal kandidaat-termen, aantal in behandeling zijnde termen, aantal goedgekeurde referentiegegevens, aantal kandidaat-codewaarden, aantal in afwachting van goedkeuring, aantal goedgekeurde gegevensproblemen, aantal lopende gegevensproblemen, aantal opgeloste gegevensproblemen in de laatste datakwaliteitsperiode; Datakwaliteitsindex per toepassing, per informatievectoren van kritieke gegevenselementen, door gegevensbeheerder, door gegevenseigenaar, door gegevensopslag, per toepassing of per gegevensdomein.

21. DAMA: De tool moet de DAMA-I aanpak uitgedrukt in de DMBoK2, een eenvoudig commando dat van groot belang is, tenzij we hebben besloten om een ​​ander raamwerk te volgen, zoals DGI of EDM.

De DMBoK2 tekst stelt het volgende:

“Een Metadata Management-systeem moet metadata uit veel bronnen kunnen halen. Ontwerp de architectuur om de verschillende bronnen van metadata te kunnen scannen en periodiek de repository bij te werken. Het systeem moet handmatige metadata-updates, verzoeken, zoekopdrachten en metadata-lookups door verschillende gebruikersgroepen ondersteunen. “

“Een managed metadata-omgeving moet de eindgebruiker isoleren van de verschillende en ongelijksoortige metadata-bronnen. De architectuur moet één toegangspunt voor de metadata-opslagplaats bieden. Het toegangspunt moet alle gerelateerde metagegevensbronnen transparant aan de gebruiker verstrekken. Gebruikers moeten toegang hebben tot de metadata zonder zich bewust te zijn van de verschillende omgevingen van de databronnen. In grote gegevens- en analytische oplossingen kan de interface door de gebruiker gedefinieerde functies (UDF) hebben om uit verschillende datasets te putten, en de blootstelling van de metadata aan de eindgebruiker is inherent aan die aanpassingen. Met minder afhankelijkheid van UDF in de oplossingen, zullen eindgebruikers de datasets directer verzamelen, inspecteren en gebruiken en zullen de ondersteunende metadata over het algemeen beter zichtbaar worden. “

Conclusies

Zoals ik aan het begin van dit stuk al zei, zijn data de grootste troef van onze bedrijven. We moeten het beheren of, zoals ik graag zeg, “meta manage het”, dus als je nog niet hebt gekozen voor een DG-tool, is het nu tijd om er een te zoeken zonder exclusief geleid te worden door Gartner, Barc, enz.

Om je werk gemakkelijker te maken, heb ik hieronder een voorbeeld Excel-bestand bijgevoegd met alle indicatoren waar je naar moet zoeken. U kunt de criteria aanpassen en meer of minder gewicht toekennen aan de kenmerken die passen bij uw Data Governance-project.

Hoe een tool voor gegevensbeheer met 20 indicatoren te evalueren (plus 1)

Meer informatie over ?

Hoe een tool voor gegevensbeheer met 20 indicatoren te evalueren (plus 1)
Of weten wat het voor jouw organisatie kan betekenen?

Onze business consultants komen het graag op locatie uitleggen.

Meer kennis uit deze categorie

Hoe een tool voor gegevensbeheer met 20 indicatoren te evalueren (plus 1)

Gratis scan aanvragen
voor jouw organisatie?

    test

    Gratis scan aanvragen
    voor jouw organisatie?