Categoriearchief: Testen

Analyzing and Testing Data Environments – Common Issues

Analyzing and Testing Data Environments – Common Issues

Armando Dörsek © 2023

Introduction

When dealing with data centric systems, e.g. when analyzing and testing data warehouse or business intelligence environments, you’ll probably come across various errors. These errors can be due to insufficient analysis of the source data, developing the wrong transformations or even by using the system in the wrong way. To explain and categorize these common mistakes, you’ll find a summary of common mistakes below. 

Types of errors

  1. Homonyms and Synonyms in columns/field names
  2. Technical differences between systems
  3. Wrong usage of source systems
  4. Fields/Columns filled with technically correct values but not providing any real business
  5. History issues
  6. Wrong mappings
  7. Wrong transformations

Homonyms/Synonyms

When various concepts are known under the same description, we call this a “homonym”. For instance, an “area” may be used to depict a quantity of a two-dimensional surface (e.g. measured in square meters) but it may also refer to a region (e.g. a neighborhood, borough or zone).

When two different names are used for the same concept, we call these “synonyms”. For instance, when analyzing concepts like “contact” and “client”, it is important to figure out if the meaning of the concepts are 100% identical or that slight differences apply, based on the usage in the source systems. E.g. for some departments, contacts may be treated as a customer only after they have actually put in their first order with the company.

When analyzing, building and testing interfaces between systems, data integration and reports, this is something to take a good look at.

Technical Differences between Systems

When transferring (loading, moving) data from one system to another and integrating these values, issues may arise due to technical differences between systems. In the design, development and test of the interfaces and data integration, this needs attention.

Character Sets

One example is the different implementation of treating characters, i.e. storing specific characters in a different way on the various systems. Computers are good at storing numbers (1’s and 0’s) but for storing texts, character sets were developed. These may be incomplete and not able to store all relevant characters – leading to simplifying texts. E.g. the ASCII character set is able to store “plain English” characters but to store all letters, punctuation and symbols of other languages, the Unicode character set is required. 

Physical Storage of Data

Related to the issue above, is the difference in storing files on different systems like mainframes, Windows based system and a Unix/Linux based systems. Files may be treated in a different way where it comes to technical features like “end of line” characters and the way specific characters are stored.

Differences in Data Types

When storing data, you often get to choose from different data types, like character, numbers, dates and currencies. Various Database management systems (DBMS’s) and integration tools treat data types in different ways. These differences may be inherent to the system, others may be configured by technical staff. E.g. if a source system only supports storing text and target systems have ways to store numbers, dates and texts, some kind of transformation is needed. The analysis of the possibilities in the source systems is crucial: is “7,001” to be treated the same as “7.001”? Data profiling tools can be helpful. Make sure ask the right questions during review of the specifications, to test variations in the unit- and system tests and to have “rich” acceptance test sets that cover all kinds of different values in the source systems.

Wrong use in/of Source Systems

Users are extremely resourceful when it comes to using their tools (i.e. our source systems) in the most efficient manner. This will sometimes lead to using in a way it was not meant to, e.g. by filling “free format” fields with data that should have been stored elsewhere. Or by team A using field X in a different way than team B, making it difficult to analyze the data in that certain field (X).

Values are Technically Correct – but have low Business Value

When analyzing data sets, you may come across tables which contain a lot of “generic” of default values. Consider a table with customers having a column called “MarketSegment”. If most hold the value “99 Various Market Segments”, the business value of having such a field in a report is quite low.

When analyzing data in order to build meaningful reports, this should be mentioned to end users in an early stage – as they will probably record this as a finding or bug at the time of an acceptance test. 

The following situation is even worse: when users decide to enter blanks or certain values like “X” or “0,0” in fields that should have been filled in a correct manner. In this case, the value is not only too generic (like with “99 Various Market Segments”) but plain wrong. If not addressed, it may lead to wrong business decisions. E.g. when car crashes are not registered on their precise location, due to users entering wrong geo locations, dangerous streets and crossings may not get improved in time.

History Issues

Some source systems are designed is such a way that only the current situation is stored, and does not retain “history”. Should history be required this may lead to (at least) two kinds of issues.

The first issue arises when end users get creative in storing information that they want to keep in fields that weren’t meant for this purpose, like in a “Remarks” field. Should data analysts overlook the data in this field, e.g. because the technical documentation says it’s “just for remarks”, this may lead to issues. Data profiling should be applied, to find out if these situations occur in the source systems. Even if the issue is addressed, retrieving the relevant data from such fields can be hard and error prone.

The second issue happens when there is uncertainty about the actual validity of a value, as the original values get overwritten in the source systems. Is the shown value “the latest value” or the “original value”? Input from the user community is required.

Note: A solution may consist of developers building a system for “change data capture” (CDC), registering each and every change in the source system and figuring out what to do with it based on technical and business rules.

In data warehousing, history is often kept by the use of Slowly Changing Dimensions type 2 (SCD2). Tables have columns added with a begin- and end date, showing the period in which the situation is valid. When an attribute changes value, a new row is added with a new begin date (and the old record gets “closed”). More variants of SCD exist, and when developing solutions based on SCD, errors can be introduced as well. Be sure to have a test plan in place to cover the basic situations when working with SCD.

Wrong Mappings

Mappings can be implemented in a wrong way, in many ways.

First, due to a human errors, columns may be mapped to other columns than intended (in the design). E.g. mapping “StudentName” in the student database to “BANKACCOUNT” instead of “LASTNAME”. Replacing the manual mapping with more automated mappings tackle many of these issues and many of the wrong mappings are easily discovered by a visual check. Should a mapping hold many similar fields, this may become more difficult, but even so: checking it is very valuable, as solving issues in Acceptance Tests are more costly than bugs that are found early in the process.

A second type of error does not concern mapping the actual fields, but concerns the contents of the fields. E.g. when mapping dates from TEXT and DATE fields to other DATE and DATETIME, extra attention is required from developers and testers. Does “20230305” stand for 3 May 2023 or 5 March 2023? Are DATETIME fields (e.g. “20230305000000”) actually holding date/time with much precision – or only the date?

If several systems hold similar values, these may be integrated, but small differences are lurking around the corner: if system A will store “sex” coded as 1 (male), 2 (female) and 0 (unknown and other) and system B will store texts “boy”, “girl”, “man”, “woman”, “military”, “disabled”, “other” and <blank>, then business rules will need to be applied to make sure that the data in Data Marts and reports will be meaningful.


Suggestions

This is just a limited number of issues that may occur. You’ll probably have found some of these, and others, yourself. Feel free to share your experiences and report issues that you’re experiencing in the field of data.

Black Friday Deal voor training “Certified Data & Analytics Tester”

Profiteer nu van de Black Friday Deal van Verified en ontvang je examenvoucher t.w.v. EUR 200,- helemaal gratis bij je inschrijving voor “Certified Data & Analytics Tester”.

Dit betekent dat je voor de tweedaagse training inclusief het officiële examen van DAU/Brightest nu geen EUR 1195,- maar slechts EUR 995,- betaalt (ex. BTW).

Deze actie gaat per direct in en is geldig tot en met vrijdag 25 november 2022 (23:59 CET).


Schrijf je nu in en vermeld in het commentaarveld “Black Friday” om aanspraak te maken op deze korting.

    Ja, ik neem graag deel aan de volgende training:

    Neem alstublieft contact met mij op!

    Cursusdata 1e Half Jaar 2021

    Voor de training DAU Certified Data & Analytics Tester (CDAT) hebben we de volgende data ingepland voor het eerste half jaar van 2021.

    • 25 & 26 januari 2020, Live in Utrecht indien mogelijk (anders on line), Nederlands gesproken
    • 18 & 25 februari en 4 & 11 maart, Online sessies van 1400-1700 uur (CET), Engels Nederlands gesproken
    • 25 & 26 maart, Live in Den Haag Utrecht (indien mogelijk, anders online). Nederlands gesproken
    • 19, 20 & 21 april, Online sessies, Engels gesproken.
    • 10 & 11 mei, Live in Berlijn (indien mogelijk, anders on line). Engels gesproken.
    • 26 mei en 2, 16 & 23 juni, Online sessies van 14:00-17:00 uur (CET), Engels gesproken.
    • 8 & 9 juni, Live in Amsterdam (indien mogelijk , anders on line). Nederlands gesproken.
    • 12 & 13 juli, Live in Berlijn (indien mogelijk, anders on line). Engels gesproken.

    Zie de evenementenkalender voor details en voor het inschrijvingsformulier.

    Daarnaast blijft het mogelijk om in company trainingen  en trainingen op maat aan te vragen.  Vragen? Neem vooral contact met Verified op, we staan je graag te woord.

    Online Training van CDAT in het Engels

    In samenwerking met Ammerlaan IT Advies & Opleidingen verzorgt Verified in oktober 2020 de training “DaU Certified Data & Analytics Testing” in een Engelstalige online variant.

    De cursus behandelt essentiële kennis en vaardigheden voor het testen en toetsen van datawarehouse-, business intelligence (rapportages, dashboards) en analytics oplossingen. De doelgroep omvat niet alleen testers maar ook ontwikkelaars, analisten en data scientists.

    De deelnemers ontvangen op 4 woensdagmiddagen alle stof die nodig is voor het behalen van het examen voor CDAT.  Door te kiezen voor deze vorm bedienen we niet alleen de Engelstalige medewerkers in Nederland maar ook geïnteresseerden in het buitenland (bv. Europa,  India en het oosten van Noord- en Zuid Amerika).

    Naast deze online training blijven natuurlijk ook de klassikale open inschrijvingen én de in-company training op de kalender staan. Bekijk alle trainingsdata hier.

    Image showing person from above making notes next to a laptop
    Photo by J. Kelly Brito on Unsplash

    DaU CDAT Syllabus is gereed

    Na een review door tientallen experts uit binnen- en buitenland is de Syllabus voor de training DaU “Certified Data & Analytics Tester” een feit! Jaap, Rogier en Armando hebben daarmee de basis gelegd voor het vernieuwde cursusmateriaal en de examens voor deze training.

    Je kunt de Engelstalige syllabus (gratis) downloaden
    op de site van Data & Analytics United.

    De voorloper van DaU CDAT was reeds goed bezocht en prima beoordeeld, deze reviews hebben het materiaal naar een nog hoger niveau gebracht. Je kunt de training afronden met een examen dat via Brightest wordt afgenomen. Je diploma is tevens internationaal erkend door Data & Analytics United.

    Interesse in het volgen (en/of geven) van deze training? Neem Contact met ons op of kijk eerst de introductievideo op de site van  Data & Analytics United.

    Data Analytics United Logo

    CDAT gaat internationaal met Brightest

    Verified is trots om te melden dat we onze training “Certified Data & Analytics Tester (CDAT)” onder de vlag van Brightest gaan delen met een internationaal publiek.

    Logo BrighTest.org

    Brightest is een internationale organisatie die zich richt op certificeringstrajecten op het gebied van software testen. Wellicht kent u hen al van ISTQB trainingen, Selenium United, Agile United of DevOps United. Binnenkort komt daar een nieuwe loot aan de boom bij, met Data & Analytics United.

    Data Analytics United Logo

    Onderdeel van dit traject is een review van de Syllabus van de training “Certified Data & Analytics Tester” door een panel van experts in binnen- en buitenland. Deze syllabus is opgesteld door Rogier Ammerlaan, Jaap de Roos en Verified-oprichter Armando Dörsek. Zodra deze review succesvol is afgerond, kunt u deze (Engelstalige) syllabus terugvinden op de site van Brightest.

    Bij het behalen van de DaU certificaten van Brightest kunt u aantonen dat u kennis en vaardigheden bezit die wereldwijde erkenning genieten.

    Data & Analytics Testing Tools Summary (2)

    Testing of Data & Analytics environments is increasingly supported by test tools. At Verified, we wonder what your experience is with one of these tools – and if you propose certain tools that have helped you ?

    Please let us know, by leaving a message under this post, through the Contact FormLinkedIn or Twitter or contact us in any way you prefer. If you like, we can reply with a listing of more than 15 tools that should help testers and analysts  in testing and quality issues. 

    The previous post on Test Tools can be found here.

    Note: We are not sponsored in any way by the tool providers.

    RTTS QuerySurge

    Querysurge is a commercial product made for testing ETL, where comparison of source and target tables is the main object.

    It offers dashboards, query wizards, various prefabricated queries for comparison of data, text search etc.

    A trial version is available: https://www.querysurge.com/compare-trial-options

    Note that for BI Testing, an add on is available. Connectors are available for Cognos, Tableau, SAP Business Objects, Microstrategy and OBIEE.  Features include comparison of reports when upgrading or migrating, querying report meta data.

    ICEDQ

    iCEDQ is a commercial ETL Test Tool, which runs in the cloud, on premise or hybrid.

    It offers a rule engine module, which features:

    • Checksum rules (e.g. row counts)
    • Reconciliation rules (e.g. missing records)
    • Validity rules (SCD Type 2, Format Checks)
    • Script rules (e.g. execute DML/DDL, pre and post actions).

    iCEDQ currently integrates with Jenkins, TFS, Jira, HP ALM and ServiceNow.

    iCEDQ offers trials through their website:

    https://icedq.com/download-icedq-trial

    Bitwise QualiDI

    QualiDI focuses on ETL testing from sources to targets.

    It provides data validation and comparison of data, has a centralized repository of requirements, test cases, test results and has a API trigger based automation of test execution.

    There is Business Rules Engine, enabling non-technical users to write rules instead of queries. It integrates with Bitwise Test Data Management Suite for providing test data.

    QualiDi is a commercial product, a 30 day trial is available

    Source: https://www.bitwiseglobal.com/innovations/qualidi/

    SSIS Tester

    SSIS Tester is offered by bytesoftwo and focuses on testing Microsoft SSIS.

    SSIS Tester is a testing framework built on top of SQL Server Integration Services. It enables you to test packages, tasks and precedence constraints. It supports two types of tests:

    1. unit tests
    2. integration tests.

    SSIS Tester helps you to develop you ETL process in the test driven manner and to identify errors early in the development process. It offers “data taps” and fake source or targe components, enabling developers to work independently. Tests target packages or particular tasks.

    More information on SSIS Tester on MSDN can be found here:

    http://msdn.microsoft.com/en-us/magazine/dn342874.aspx

    SSIS Tester offers a free 21-day trial version:

    http://www.bytesoftwo.com/download.html

    Next 4 Tools

    In a few weeks I will publish the next Blog post, asking for new experiences. Thanks for reading this post!

    Omdat deze tekst gericht is op een internationaal publiek, heb ik ervoor gekozen om de bovenstaande tekst in het Engels op te stellen. Stelt u prijs op een vertaling naar het Nederlands? Neemt u dan aub contact met ons op.

    Data & Analytics Testing Tools Summary (1)

    Introduction

    During the training Certified Data & Analytics Tester (Foundation Level) we provide a list of tools that can be used in testing or monitoring Business Intelligence and Data Warehouse products.

    Below you can find the first 4 tools of this list, with a short description and links to the tool providers.

    We are curious for your experiences when using these tools. What have they brought to your (testing) team? What is a Big Plus of using the tool – and with which features are you less impressed? Is an active user community available, or a help desk that makes a difference? Please let us know, by leaving a message under this post, through the Contact Form, LinkedIn or Twitter.

    Note: We are not being sponsored by one of the products or their integration partners.

    Data Cleaner

    Data Cleaner is software which is used for Data Profiling.

    It can also be used in the process of creating logical and physical test cases as it offers extensive support to analyze and browse through data sets.

    Data Cleaner also offers features to clean, transform and export data sets. Rules can be built and reused.

    Data Cleaner is free, additional (paid) features are available.

    It can be downloaded to your desktop (Windows, Mac) environment from sourceforge or the community website:

    https://datacleaner.org/

    SAS Unit

    SAS Unit is a framework for the unit testing of SAS programs (SAS EG 9.2, 9.3, 9.4).

    Amongst others, SAS Unit offers features to assess test coverage of SAS Macros, running tests in batch mode, performance testing of SAS programs.

    SAS Unit uses assertions to test the values of macro variables, contents of SAS data sets, relations between data sets, the existence of files incl. log files and – messages.

    SAS Unit is open source software and built from SAS macros.

    https://sourceforge.net/projects/sasunit/

    Informatica DVO

    Informatica offers a testing solution called Data Validation Option for PowerCenter (DVO).

    The DataValidator for PowerCenter product was originally developed by a company DVO SOFTWARE. It is now available under the Informatica brand as Informatica PowerCenter Data Validation Option.

    DVO is a custom tool built on top of Informatica PowerCenter. DVO integrates with the Informatica PowerCenter Repository and Integration Services and enables developers and business analysts to create rules to test the data being transformed during the data integration process.

    Informatica mentions the following ETL Testing Use Cases: Production Validation Testing, Source to Target Testing and Application upgrades.

    Amongst others, it features:

    • An easy-to-use GUI interface to test the rules created for data validations for multiple projects.
    • No programming skills needed to create validation tests.
    • A repository with reporting capabilities to provide a complete audit trail of all tests and their results.
    • Reading data definitions from PowerCenter metadata repositories and can easily deal with data definition changes.

    Note that DVO tests data only, not mappings or workflows. Testing mappings is unit testing, which is different from data validation.

    As DVO is a commercial product it may be attractive to Informatica Power Center users. At this moment, no free trial seems available (Feb 9, 2020).

    www.informatica.com

    Datagaps ETL Validator

    Datagaps offers several products, e.g. ETL Validator, BI Validator, Data Flow and Test Data Manager.

    The Datagaps ETL Validator comes pre-packaged with an ETL engine capable of extracting and comparing millions of records from multiple data sources while executing test cases in parallel.

    ETL Validator also has a Visual Test Case Builder with drag-and-drop capabilities and a Query Builder that enables defining tests without manual typing.

    Key features include enterprise collaboration, flat file testing, data profile testing, baselining, data quality testing, and database metadata testing.

    Datagaps offers a free 30-day trial.

    https://www.datagaps.com/etl-testing-tools/etl-validator-download

    Next 4 Tools

    The next page shows another 4 tools.

    Omdat deze tekst gericht is op een internationaal publiek, heb ik ervoor gekozen om de bovenstaande tekst in het Engels op te stellen. Stelt u prijs op een vertaling naar het Nederlands? Neemt u dan aub contact met ons op.

    SQS kiest voor training Certified Data & Analytics Testing (CDAT)

    SQS is een wereldspeler op gebied van testen en kwaliteit. Zij laten een selecte groep medewerkers deelnemen aan de training  Certified Data & Analytics Testing (CDAT).

    De professionals van SQS zijn reeds experts op gebied van testen en QA. Ammerlaan IT Training & Advies, DataConnected en Verified.nl stellen daarom een maatwerk programma op dat gaat starten in mei én september van dit jaar.

    Ook interesse in een maatwerkprogramma? Of in de reguliere training – maar op een andere plaats of tijd? Neem vooral contact op met Armando Dörsek van Verified.nl.

     

    Trainingen Data & Analytics Testing voor 2018 ingepland

    Meer weten over het testen van business intelligence, data warehouse en analytics omgevingen?

    Samen met Ammerlaan Training & Advies en de netwerkorganisatie DataConnected biedt Verified.nl de unieke 3-daagse training “Certified Data & Analytics Testing Foundation Level (CDAT-FL)” in Nederland aan.

    Open inschrijving voor 2018 is m.i.v. heden mogelijk: de trainingen staan ingepland in april, juni en oktober. Bovendien start in mei een reeks op de woensdagavonden.

    Zie de evenementenpagina’s voor meer details.

    Inschrijven? Interesse in een in-house variant? Neem contact op met Verified.nl en vraag naar de mogelijkheden.

    Datakwaliteit: invloeden, meten en maatregelen

    Klanten rekenen op de betrouwbaarheid van de informatie waarmee ze werken. De teams die zich bezig houden met data warehousing, business Intelligence en analytics zijn gebaat bij juiste, volledige en accurate gegevens. Als we die termen noemen, raken we het aspect datakwaliteit.

    Datakwaliteit is de “fitness for use” van de gegevens.

    Elk bedrijfsproces kan zijn eigen eisen stellen aan de data.
    De systemen die de primaire bedrijfsprocessen ondersteunen (bv. logistiek, verkoop, planning, polisadministratie) zullen zich richten op een goede kwaliteit van gegevens voor hún specifieke bedrijfsproces of -keten. Niet meer en niet minder. Zodra we deze gegevens willen gebruiken in een bredere context, voor business intelligence en analyticsdoeleinden, kunnen we ertegenaan lopen dat deze gegevens niet zonder meer bruikbaar blijken: de datakwaliteit kan te laag zijn.

    Oorzaken voor slechte datakwaliteit
    Datakwaliteit kan onder meer te wensen overlaten door (1) slechte invoer bij de bron.  Medewerkers in een callcenter worden soms afgerekend op het aantal verwerkte gesprekken, niet op de kwaliteit van de ingevoerde data. Om tijdswinst te boeken kunnen zij o.a. besluiten om het niet zo nauw te nemen met de spelling bij het opvoeren van klantgegevens en om niet-verplichte velden over te slaan. Dit heeft direct weerslag op de datakwaliteit.

    Datakwaliteit zal afnemen door het (2) verstrijken van de tijd. Adressen van klanten zullen als gevolg van verhuizingen enz. veranderen. Regelmatige controle op de actualiteit van dergelijke gegevens helpt bij het behouden van juistheid van deze gegevens. Ook veranderende afspraken over de notatie van o.a. kentekens, telefoonnummers en landenaanduidingen hebben hun weerslag op de datakwaliteit.

    Gegevens kunnen inboeten aan kwaliteit als gevolg van (3) internationalisatie: bij het combineren van data uit binnen- en buitenland kunnen bv. issues optreden ten aanzien van gebruikte character sets of door het introduceren van andere valuta, adresnotaties, etc.

    Bij (4) conversies en migraties van gegevens, bv. als gevolg van vervanging of integratie van geautomatiseerde systemen, overnames (integreren van datasets van verschillende bedrijven) of schoning (verouderde producten, verstreken bewaartermijnen) kunnen mankementen ontstaan aan de gegevens.

    Voorkomen en repareren
    Op voorgaande oorzaken kan een datawarehouse- en business intelligence team slechts indirect invloed uitoefenen. Waar het team wél direct invloed op heeft, is op de (5) kwaliteit van de verwerking: het extractie-, transformatie- en laadproces van de data en de  (6) juiste weergave van de data in de informatieproducten. Dit kan door goed testen en toetsen onder controle worden gebracht.

    Onder de noemer (7) data cleaning of data cleansing worden activiteiten geschaard die de gegevens moet corrigeren en aanvullen. Deze activiteit is niet voorbehouden aan datawarehouse- en business intelligence teams, maar kan ook direct op de primaire systemen zelf plaats vinden.

    Gegevensarchitecten moeten besluiten nemen over wáár de gegevens gerepareerd worden: in de bron of bv. in het datawarehouse. Als voor de laatste optie wordt gekozen dan is één ding zeker: dit vergt een forse inspanning in termen van ontwikkeling en testen.

    Objectief meetbare datakwaliteit
    Kwaliteit kunnen we meetbaar maken aan de hand van kwaliteitsattributen of -dimensies. Zo kennen we voor het in kaart brengen van de kwaliteit van software en ICT systemen de norm ISO25010 en de kwaliteitsatributen van TMap Next.

    De datakwaliteit kun je uitdrukken met met behulp van specifieke kwaliteitsattributen of dimensies, zoals die van ISO 25012, het IDQ model van Valori (Bouman) of die van de Data Management Association (DAMA).

    Take Aways van de Dag

    • Start met het meten van data kwaliteit en stel jezelf als organisatie doelen
    • Stem het testproces hierop af en bepaal de te behalen dekking
    • Integreer data profiling vanaf de start in het analyse-, ontwerp- en testproces. Voeg data profiling structureel toe aan het beheerproces om niet verrast te worden door wijzigingen (in data) in bronsystemen.
    • Besef dat de datakwaliteit niet statisch is maar zich zal ontwikkelen. Zorg dat het systeem niet alleen kan omgaan met de data van gisteren – maar óók van morgen!

    Vragen?
    Als u vragen heeft over het bovenstaande, bv. u wilt een start maken met het objectief meetbaar maken van de datakwaliteit in uw organisatie, neem vooral contact op met Verified. We staan u graag te woord.

    Presentatie TestNet Thema-avond Werkgroep “Testen van BI/DWH”

    Op 8 september 2015 stonden Ferran Rohaan (CloseSure), Brian Engel (Squerist) en Armando Dörsek (Verified) op de bühne bij de thema-avond van TestNet over het testen van Business Intelligence en Datawarehousing. Het NBC was gevuld met bijna 100 testers, waarvan ongeveer de helft nu actief is in een BI/DWH-traject.

    Alle drie de sprekers maken deel uit van de werkgroep Testen van BI/DWH van TestNet en namen een stuk van de presentatie voor hun rekening.

    Ferran Rohaan vertelde over enkele uitgangspunten van Business Intelligence en Datawarehousing. Hij sprak ook over de mogelijkheden die het realiseren van een Audit Trail biedt voor ontwikkelaars, testers, beheerders en auditors.

    Brian Engel sprak over nut & noodzaak van testautomatisering in BI/DWH projecten en het aanbod en de selectie van testtools gericht op deze trajecten.

    Armando vertelde over de werkgroep en de producten daarvan. Hij lichtte de teststrategie in BI/DWH-trajecten toe, hoe dit zich vertaalt naar een testaanpak, of bekende testspecificatietechnieken inzetbaar zijn  en welke  rollen en “skills” passen bij BI/DWH-testers.

    Veel bezoekers  maakten bij de borrel gebruik van de mogelijkheid om met de presentatoren spreken over persoonlijke uitdagingen in BI-trajecten. Zo kwamen o.a. ontwikkelingen zoals Big Data, Agile/Scrum en testen aan de orde. Vervolgafspraken staan reeds genoteerd! Heeft u ook een vraag, neem dan vrijblijvend contact op met de sprekers: thema-avond-BI@verified.nl

    De presentatie: Testnet-Werkgroep-BI-Testen-20150908-v1.0

     

    De video:

    Presentation at Nordic Testing Days 2013

    The Nordic Testing Days 2013 were held in Tallinn, Estonia from 5-7 June. Together with colleague and friend Iris Groenewoudt I was invited to give a presentation on Testing in Agile Business Intelligence projects.

    The presentation can be found here on the NTD website.

    We had a great time in the beautiful city of Tallinn and we met many nice new colleagues in the field of Software Testing. I certainly hope to visit Tallinn again in the future.

    ntd2013_presentatie (2)

     

     

     

    Estonia here I come!

    I am very happy to announce that I will be presenting at Nordic Testing Days 2013!

    Earlier this year I responded to the Call For Papers and my presentation about “Testing in Agile Business Intelligence Projects” was selected.

    The Nordic Testing Days will be held in Tallinn, Estonia from 5-7 June at the beautiful Meriton.  The program consists of one tutorial day and two conference days. You can attend one or both, or even share days with a colleague. This year’s theme is “Testers & Developers – Partners in Quality”.

    Other names are: Alon Linetzki (Agile Testing), Geoff Thompson (TMMi) and Margus Simson (key note speaker).

    Hope to see you at #NTD2013!

    Nu als download: presentatie TestNet Event (2012)

    Dank u wel voor uw interesse in de presentatie van Iris Groenewoudt en Armando Dörsek op het TestNet najaarsevenement (2012).

    Artikel
    Het artikel dat we in aanloop naar het Evenement hebben geschreven is nu te downloaden via de TestNet website.

    Presentatie
    De presentatie zoals ik die op het TestNet Najaarsevenement heb verzorgd staat hier op deze site en ook op die van TestNet.

    NB: Binnenkort zullen we de uitgebreide versie van dit artikel net als verdere referenties, verwijzingen en andere downloads over dit onderwerp plaatsen.

    Contact
    Wilt u contact met me opnemen, schroom dan niet om het contactformulier in te vullen of mij te bellen, zie de Contactpagina.