Tagarchief: datakwaliteit

Training “Certified Data & Analytics Tester” (CDAT) – Nederlands gesproken

Tijdens deze praktisch opgezette training krijg je inzicht in het gestructureerd testen in complexe Data & Analytics projecten en omgevingen. Je kunt na afloop een teststrategie opzetten voor data warehouse- , business intelligence- en analytics trajecten, deze uitvoeren en er in heldere bewoording over rapporteren.

De inhoud van de training sluit aan op ISTQB en biedt een specifieke toepassing in de Data (Analytics) omgeving.

Deze 2-daagse training DAU® CDAT Foundation Level wordt verzorgd in het Nederlands (met Engelstalige slides en artikelen) en de trainingsdagen lopen van 9.00 tot 17.00 uur (inclusief pauze). Voor een lunch wordt uiteraard gezorgd.

De trainingsdagen zijn:

  • 8 juni 2021
  • 9 juni 2021
Startgarantie!

De kosten van de training bedragen € 1195,- ex. BTW incl. één voucher voor het Brightest DAU CDAT examen.

Zie voor meer details de beschrijving van de training.


    Ja, ik neem graag deel aan de volgende training:

    Neem alstublieft contact met mij op!

    Training Data & Analytics Testing (CDAT-FL) (In House) (VOL)

    Tijdens deze praktisch opgezette training leer je meer over gestructureerd testen in complexe Data & Analytics omgevingen.

    Na afloop van de training ben je in staat om een teststrategie op te zetten voor Data Warehouse- , Business Intelligence- en Analytics trajecten. Je krijgt handvatten om deze uit te voeren.

    De inhoud van de training is gebaseerd op industriestandaarden zoals ISTQB met een specifieke vertaling voor de Data (Analytics) omgeving.

    Zie voor meer details de beschrijving van de training.


    Titel:  Certified Data & Analytics Testing (Foundation Level)
    Code: CDAT-FL
    Duur: 4 avonden (in house)
    Data: woensdag 15, 22, 29 mei en 5 juni

    NB: Dit betreft een maatwerk in house trainingsreeks die specifiek gericht is op testprofessionals van SQS 

    Interesse? Neem contact op met Armando Dörsek van Verified.

    Datakwaliteit: invloeden, meten en maatregelen

    Klanten rekenen op de betrouwbaarheid van de informatie waarmee ze werken. De teams die zich bezig houden met data warehousing, business Intelligence en analytics zijn gebaat bij juiste, volledige en accurate gegevens. Als we die termen noemen, raken we het aspect datakwaliteit.

    Datakwaliteit is de “fitness for use” van de gegevens.

    Elk bedrijfsproces kan zijn eigen eisen stellen aan de data.
    De systemen die de primaire bedrijfsprocessen ondersteunen (bv. logistiek, verkoop, planning, polisadministratie) zullen zich richten op een goede kwaliteit van gegevens voor hún specifieke bedrijfsproces of -keten. Niet meer en niet minder. Zodra we deze gegevens willen gebruiken in een bredere context, voor business intelligence en analyticsdoeleinden, kunnen we ertegenaan lopen dat deze gegevens niet zonder meer bruikbaar blijken: de datakwaliteit kan te laag zijn.

    Oorzaken voor slechte datakwaliteit
    Datakwaliteit kan onder meer te wensen overlaten door (1) slechte invoer bij de bron.  Medewerkers in een callcenter worden soms afgerekend op het aantal verwerkte gesprekken, niet op de kwaliteit van de ingevoerde data. Om tijdswinst te boeken kunnen zij o.a. besluiten om het niet zo nauw te nemen met de spelling bij het opvoeren van klantgegevens en om niet-verplichte velden over te slaan. Dit heeft direct weerslag op de datakwaliteit.

    Datakwaliteit zal afnemen door het (2) verstrijken van de tijd. Adressen van klanten zullen als gevolg van verhuizingen enz. veranderen. Regelmatige controle op de actualiteit van dergelijke gegevens helpt bij het behouden van juistheid van deze gegevens. Ook veranderende afspraken over de notatie van o.a. kentekens, telefoonnummers en landenaanduidingen hebben hun weerslag op de datakwaliteit.

    Gegevens kunnen inboeten aan kwaliteit als gevolg van (3) internationalisatie: bij het combineren van data uit binnen- en buitenland kunnen bv. issues optreden ten aanzien van gebruikte character sets of door het introduceren van andere valuta, adresnotaties, etc.

    Bij (4) conversies en migraties van gegevens, bv. als gevolg van vervanging of integratie van geautomatiseerde systemen, overnames (integreren van datasets van verschillende bedrijven) of schoning (verouderde producten, verstreken bewaartermijnen) kunnen mankementen ontstaan aan de gegevens.

    Voorkomen en repareren
    Op voorgaande oorzaken kan een datawarehouse- en business intelligence team slechts indirect invloed uitoefenen. Waar het team wél direct invloed op heeft, is op de (5) kwaliteit van de verwerking: het extractie-, transformatie- en laadproces van de data en de  (6) juiste weergave van de data in de informatieproducten. Dit kan door goed testen en toetsen onder controle worden gebracht.

    Onder de noemer (7) data cleaning of data cleansing worden activiteiten geschaard die de gegevens moet corrigeren en aanvullen. Deze activiteit is niet voorbehouden aan datawarehouse- en business intelligence teams, maar kan ook direct op de primaire systemen zelf plaats vinden.

    Gegevensarchitecten moeten besluiten nemen over wáár de gegevens gerepareerd worden: in de bron of bv. in het datawarehouse. Als voor de laatste optie wordt gekozen dan is één ding zeker: dit vergt een forse inspanning in termen van ontwikkeling en testen.

    Objectief meetbare datakwaliteit
    Kwaliteit kunnen we meetbaar maken aan de hand van kwaliteitsattributen of -dimensies. Zo kennen we voor het in kaart brengen van de kwaliteit van software en ICT systemen de norm ISO25010 en de kwaliteitsatributen van TMap Next.

    De datakwaliteit kun je uitdrukken met met behulp van specifieke kwaliteitsattributen of dimensies, zoals die van ISO 25012, het IDQ model van Valori (Bouman) of die van de Data Management Association (DAMA).

    Take Aways van de Dag

    • Start met het meten van data kwaliteit en stel jezelf als organisatie doelen
    • Stem het testproces hierop af en bepaal de te behalen dekking
    • Integreer data profiling vanaf de start in het analyse-, ontwerp- en testproces. Voeg data profiling structureel toe aan het beheerproces om niet verrast te worden door wijzigingen (in data) in bronsystemen.
    • Besef dat de datakwaliteit niet statisch is maar zich zal ontwikkelen. Zorg dat het systeem niet alleen kan omgaan met de data van gisteren – maar óók van morgen!

    Vragen?
    Als u vragen heeft over het bovenstaande, bv. u wilt een start maken met het objectief meetbaar maken van de datakwaliteit in uw organisatie, neem vooral contact op met Verified. We staan u graag te woord.

    Workshop “Data Quality” op Testnet Voorjaarsevenement 2016, Houten

    Op woensdag 11 mei 2016 vindt het Voorjaarsevenement van Testnet plaats. Van 09:00-21:00 uur zal het NBC gevuld zijn met allerhande soorten testers, voor het delen van ervaringen en het opsnuiven van nieuwe kennis.

    Armando Dörsek zal op deze dag met Peter Endema een workshop verzorgen: Data Profiling voor Testers.

    De workshop vindt plaats tussen 15:40 uur en 17:20 uur. Neem je eigen laptop mee!

    Na enige uitleg door Armando over oorzaken en gevolgen van data issues  neemt Peter de deelnemers mee in het geautomatiseerd analyseren van datasets middels een open source data profiling tool. Testers leren hiermee nieuwe vaardigheden waarmee ze eerder in het traject betrokken zullen worden en die hen nog waardevollere teamleden maakt.

    Voor meer informatie over Testnet en het Voorjaarsevenement: https://www.testnet.org/testnet/p000533/bibliotheek/evenementen/voorjaarsevenement-2016-verbreed-je-basis-nieuwe-vaardigheden-voor-testers-korte-samenvatting-workshops