Categoriearchief: Blogs

CDAT-FL ook voor 2019 ingepland

Kalender

In 2018 hebben DataConnected, Ammerlaan en Verified drie succesvolle cursusreeksen uitgevoerd voor de training “Certified Data Analytics Tester”, oftewel CDAT.

Oók een CDAT-training volgen? Goed idee! Dat kan in 2019 op diverse locaties in Nederland:

  • Utrecht, 4 februari 2019 – 6 februari 2019
  • Zwolle, 23 mei 2019 – 25 mei 2019
  • Utrecht, 11 september 2019 – 13 september 2019
  • Den Haag, 7 oktober 2019 – 9 oktober 2019
  • Utrecht, 11 november 2019 – 13 november 2019

Uiteraard kunnen we in-house trainingen verzorgen, vraag naar de mogelijkheden.

 

Opnieuw training CDAT beoordeeld met 8

Rating 8De training “Certified Data & Analytics Tester (Foundation)” die we op 1, 2 en 3 oktober hebben mogen verzorgen is bijzonder goed ontvangen: de cursisten gaven de training het mooie cijfer van (gemiddeld) een 8!

Over de training

CDAT-FL is een training die je leert om de verbinding te maken tussen de “standaard” testpraktijk en de bijzonderheden van de BI/DWH/Analytics-omgeving. Bovendien vul je je virtuele gereedschapskist aan met direct inzetbare technieken en tools.

Meer weten?

Meer over de training weten? Neem de Flyer eens door en neem contact op met Armando Dörsek van Verified via (06) 23 054 054 of vul het Contactformulier in.

Training “Data & Analytics Tester” goed ontvangen!

Rating 8De maatwerk-training op basis van “Certified Data & Analytics Tester (Foundation)” die we eind mei en begin juni hebben mogen verzorgen is goed ontvangen.

De cursisten gaven de training het mooie cijfer van (gemiddeld) een 8!

Over de training

CDAT-FL is een training die testers bekend maakt met het testen van Business Intelligence, Data Warehouse en Analytics oplossingen. Het traject is voor deze klant aangepast naar een in-house training van 4 avonden (inclusief examen).

Meer weten?

Meer over de training weten? Bekijk de uitgebreide beschrijving en neem contact op met Armando Dörsek via (06) 23 054 054 of vul het Contactformulier in.

Datakwaliteit: invloeden, meten en maatregelen

Klanten rekenen op de betrouwbaarheid van de informatie waarmee ze werken. De teams die zich bezig houden met data warehousing, business Intelligence en analytics zijn gebaat bij juiste, volledige en accurate gegevens. Als we die termen noemen, raken we het aspect datakwaliteit.

Datakwaliteit is de “fitness for use” van de gegevens.

Elk bedrijfsproces kan zijn eigen eisen stellen aan de data.
De systemen die de primaire bedrijfsprocessen ondersteunen (bv. logistiek, verkoop, planning, polisadministratie) zullen zich richten op een goede kwaliteit van gegevens voor hún specifieke bedrijfsproces of -keten. Niet meer en niet minder. Zodra we deze gegevens willen gebruiken in een bredere context, voor business intelligence en analyticsdoeleinden, kunnen we ertegenaan lopen dat deze gegevens niet zonder meer bruikbaar blijken: de datakwaliteit kan te laag zijn.

Oorzaken voor slechte datakwaliteit
Datakwaliteit kan onder meer te wensen overlaten door (1) slechte invoer bij de bron.  Medewerkers in een callcenter worden soms afgerekend op het aantal verwerkte gesprekken, niet op de kwaliteit van de ingevoerde data. Om tijdswinst te boeken kunnen zij o.a. besluiten om het niet zo nauw te nemen met de spelling bij het opvoeren van klantgegevens en om niet-verplichte velden over te slaan. Dit heeft direct weerslag op de datakwaliteit.

Datakwaliteit zal afnemen door het (2) verstrijken van de tijd. Adressen van klanten zullen als gevolg van verhuizingen enz. veranderen. Regelmatige controle op de actualiteit van dergelijke gegevens helpt bij het behouden van juistheid van deze gegevens. Ook veranderende afspraken over de notatie van o.a. kentekens, telefoonnummers en landenaanduidingen hebben hun weerslag op de datakwaliteit.

Gegevens kunnen inboeten aan kwaliteit als gevolg van (3) internationalisatie: bij het combineren van data uit binnen- en buitenland kunnen bv. issues optreden ten aanzien van gebruikte character sets of door het introduceren van andere valuta, adresnotaties, etc.

Bij (4) conversies en migraties van gegevens, bv. als gevolg van vervanging of integratie van geautomatiseerde systemen, overnames (integreren van datasets van verschillende bedrijven) of schoning (verouderde producten, verstreken bewaartermijnen) kunnen mankementen ontstaan aan de gegevens.

Voorkomen en repareren
Op voorgaande oorzaken kan een datawarehouse- en business intelligence team slechts indirect invloed uitoefenen. Waar het team wél direct invloed op heeft, is op de (5) kwaliteit van de verwerking: het extractie-, transformatie- en laadproces van de data en de  (6) juiste weergave van de data in de informatieproducten. Dit kan door goed testen en toetsen onder controle worden gebracht.

Onder de noemer (7) data cleaning of data cleansing worden activiteiten geschaard die de gegevens moet corrigeren en aanvullen. Deze activiteit is niet voorbehouden aan datawarehouse- en business intelligence teams, maar kan ook direct op de primaire systemen zelf plaats vinden.

Gegevensarchitecten moeten besluiten nemen over wáár de gegevens gerepareerd worden: in de bron of bv. in het datawarehouse. Als voor de laatste optie wordt gekozen dan is één ding zeker: dit vergt een forse inspanning in termen van ontwikkeling en testen.

Objectief meetbare datakwaliteit
Kwaliteit kunnen we meetbaar maken aan de hand van kwaliteitsattributen of -dimensies. Zo kennen we voor het in kaart brengen van de kwaliteit van software en ICT systemen de norm ISO25010 en de kwaliteitsatributen van TMap Next.

De datakwaliteit kun je uitdrukken met met behulp van specifieke kwaliteitsattributen of dimensies, zoals die van ISO 25012, het IDQ model van Valori (Bouman) of die van de Data Management Association (DAMA).

Take Aways van de Dag

  • Start met het meten van data kwaliteit en stel jezelf als organisatie doelen
  • Stem het testproces hierop af en bepaal de te behalen dekking
  • Integreer data profiling vanaf de start in het analyse-, ontwerp- en testproces. Voeg data profiling structureel toe aan het beheerproces om niet verrast te worden door wijzigingen (in data) in bronsystemen.
  • Besef dat de datakwaliteit niet statisch is maar zich zal ontwikkelen. Zorg dat het systeem niet alleen kan omgaan met de data van gisteren – maar óók van morgen!

Vragen?
Als u vragen heeft over het bovenstaande, bv. u wilt een start maken met het objectief meetbaar maken van de datakwaliteit in uw organisatie, neem vooral contact op met Verified. We staan u graag te woord.