Hoe wij met AI een compleet datalandschap in uren doorgrondden
Stel je voor: een dataplatform dat in de loop der jaren organisch is gegroeid. 1.200 tabellen, 7.000 data mappings, 150+ rapportages verspreid over 10 business domeinen, gevoed door ruim 70 bronsystemen. Van finance tot productie, van supply chain tot HR. Alles met elkaar verweven door een complex web van datatransformaties, afhankelijkheden en verversingsschema’s.
Dit was het landschap waar we recent mee werden geconfronteerd. De vraag van de klant was helder: “We willen grip op ons datalandschap. Wat hebben we, hoe hangt het samen, en waar zitten de risico’s?”
Een volkomen logische vraag. Maar het klassieke antwoord - handmatige documentatie door consultants die wekenlang door tabellen, queries en rapportages spitten - paste niet bij de tijdlijn, het budget, of eerlijk gezegd bij de huidige stand van de techniek.
De traditionele aanpak: waarom die niet meer volstaat
Laten we eerlijk zijn over hoe dit soort trajecten traditioneel verlopen. Een team van twee tot drie consultants trekt zich weken terug met SQL-exports, Excel-sheets en Visio-diagrammen. Ze interviewen key users, reverse-engineeren ETL-logica, en proberen een samenhangend beeld te schetsen van iets dat nooit als geheel is ontworpen.
Het resultaat is vaak een stapel documenten die op het moment van oplevering al verouderd zijn. Niet omdat de consultants slecht werk leveren, maar omdat de complexiteit simpelweg te groot is om handmatig bij te houden.
Bij een platform van deze omvang praat je al snel over:
- Bronsystemen - welke operationele systemen voeden het platform, en via welke koppelingen?
- Datatransformaties - wat gebeurt er met de data tussen bron en rapportage? Welke business rules zijn toegepast?
- Semantic relations - hoe verhouden tabellen en velden zich tot elkaar, en tot de business-terminologie?
- Data lineage - als een bronveld verandert, welke rapportages worden dan geraakt?
- Verversingsschema’s - wanneer wordt wat ververst, in welke volgorde, en met welke afhankelijkheden?
Dit handmatig uitpluizen voor 1.200 tabellen is niet alleen tijdrovend. Het is foutgevoelig, incompleet, en nauwelijks herhaalbaar.
Onze aanpak: AI als analytische versneller
Wij kozen voor een andere route. In plaats van handmatig documenteren, lieten we AI het zware werk doen.
De metadata, transformatielogica en rapportagestructuren zijn uiteindelijk data. En als er iets is waar AI goed in is, dan is het het verwerken van grote hoeveelheden gestructureerde en semi-gestructureerde data.
Concreet zag onze aanpak er als volgt uit:
Stap 1: Extractie en structurering
We exporteerden de volledige configuratie van zowel de ETL/Data Warehouse-laag als de BI-omgeving. Denk aan tabeldefinities, veldbeschrijvingen, transformatieregels, rapportage-metadata en verversingsconfiguraties. Dit leverden we als gestructureerde input aan Claude Code, Anthropic’s AI-gestuurde development tool.
Stap 2: Analyse met Claude Code
Claude Code analyseerde de volledige dataset en produceerde gestructureerde overzichten per domein:
- Een complete inventarisatie van alle bronsystemen en hun koppelingen
- Transformatieketens van bron tot rapportage, inclusief business rules
- Afhankelijkheidsgrafen tussen tabellen, velden en rapportages
- Een volledig data lineage overzicht
- Identificatie van afwijkingen: ongebruikte tabellen, circulaire afhankelijkheden, ontbrekende documentatie
Een van de eerste inzichten: de verreweg grootste tabellen in het platform bleken loggingtabellen in de database. Tabellen die ooit voor troubleshooting waren opgezet, maar in de loop der jaren waren uitgegroeid tot de dominante opslagvreter, zonder dat iemand daar actief op stuurde.
Wat hier uren kostte, had handmatig weken geduurd. En de output was niet alleen sneller, maar ook completer - AI mist geen tabellen omdat het vrijdagmiddag is.
Stap 3: Van technische output naar visuele communicatie
Hier zit misschien wel de grootste innovatie in onze aanpak. Ruwe technische analyse is waardevol voor het projectteam, maar onverteerbaar voor stakeholders. En juist die stakeholders moeten de beslissingen nemen.
We voedden de gestructureerde AI-output aan Google NotebookLM Studio. Dit stelde ons in staat om razendsnel te genereren:
- Infographics die de architectuur visueel samenvatten per domein
- Een korte video die de klant in een paar minuten door het complete landschap loodst
Het resultaat was dat we de klant in een sessie konden meenemen in de volledige huidige staat van hun datalandschap. Geen death-by-PowerPoint, geen 80 pagina’s documentatie die niemand leest. Visueel, begrijpelijk, en direct bruikbaar als basis voor besluitvorming.
De kracht van de keten
Het is verleidelijk om dit verhaal te reduceren tot “we hebben AI gebruikt”. Maar de werkelijke kracht zit niet in een tool. Het zit in de keten:
- Claude Code voor razendsnelle analyse - het doorgronden van complexiteit op een schaal die handmatig niet haalbaar is
- NotebookLM Studio voor visuele communicatie - het vertalen van technische complexiteit naar begrijpelijke content
- Domeinexpertise als verbindende factor - AI levert de data, maar de interpretatie en de vertaling naar concrete aanbevelingen blijft mensenwerk
Zonder domeinkennis weet je niet welke vragen je aan de AI moet stellen. Zonder AI kun je de vragen niet op deze schaal beantwoorden. Zonder visuele communicatie bereik je de stakeholders niet. Elk onderdeel is essentieel.
Wat levert dit concreet op?
Voor deze klant leverde onze aanpak het volgende op:
- Tijdsbesparing: uren in plaats van weken voor een volledige architectuuranalyse
- Volledigheid: elke tabel, elk veld, elke afhankelijkheid in kaart gebracht, geen blinde vlekken
- Toegankelijkheid: stakeholders die het landschap daadwerkelijk begrijpen, niet alleen het IT-team
- Herhaalbaarheid: de analyse kan op elk moment opnieuw worden gedraaid wanneer het landschap verandert
- Besluitvorming: een solide basis voor roadmap-keuzes rondom modernisering, rationalisatie of migratie
Tot slot
De tools die we vandaag tot onze beschikking hebben veranderen hoe we naar data-architectuur kijken. Niet als iets dat je eenmalig documenteert en vervolgens in een la legt, maar als een levend inzicht dat je continu kunt verversen en communiceren.
Wie nog twijfelt of AI een plek heeft in dit soort trajecten: wij hebben het bewijs op tafel gelegd. In uren, niet in weken.
Gerelateerde artikelen
-
Welke AI-tool kies je voor je organisatie?
Een eerlijk overzicht van ChatGPT, Claude, Copilot en Gemini - niet welke het beste is, maar welke past bij hoe jouw organisatie werkt.
-
Zo richt je een Claude Project in voor je bedrijf
Een praktisch voorbeeld met B&G Catering: wat zet je in de instructies, welke documenten upload je, en wat lever het op?
-
Welkom bij House of Data
Onze vernieuwde website en de reden waarom wij doen wat we doen.