Hoe wij met AI een compleet datalandschap in uren doorgrondden | House of Data
← Terug naar blog
Herman Holterman · 17 maart 2026

Hoe wij met AI een compleet datalandschap in uren doorgrondden

AIData & BIdata architectuur

AI-gedreven datalandschap analyse

Stel je voor: een dataplatform dat in de loop der jaren organisch is gegroeid. 1.200 tabellen, 7.000 data mappings, 150+ rapportages verspreid over 10 business domeinen, gevoed door ruim 70 bronsystemen. Van finance tot productie, van supply chain tot HR. Alles met elkaar verweven door een complex web van datatransformaties, afhankelijkheden en verversingsschema’s.

Dit was het landschap waar we recent mee werden geconfronteerd. De vraag van de klant was helder: “We willen grip op ons datalandschap. Wat hebben we, hoe hangt het samen, en waar zitten de risico’s?”

Een volkomen logische vraag. Maar het klassieke antwoord - handmatige documentatie door consultants die wekenlang door tabellen, queries en rapportages spitten - paste niet bij de tijdlijn, het budget, of eerlijk gezegd bij de huidige stand van de techniek.

De traditionele aanpak: waarom die niet meer volstaat

Laten we eerlijk zijn over hoe dit soort trajecten traditioneel verlopen. Een team van twee tot drie consultants trekt zich weken terug met SQL-exports, Excel-sheets en Visio-diagrammen. Ze interviewen key users, reverse-engineeren ETL-logica, en proberen een samenhangend beeld te schetsen van iets dat nooit als geheel is ontworpen.

Het resultaat is vaak een stapel documenten die op het moment van oplevering al verouderd zijn. Niet omdat de consultants slecht werk leveren, maar omdat de complexiteit simpelweg te groot is om handmatig bij te houden.

Bij een platform van deze omvang praat je al snel over:

  • Bronsystemen - welke operationele systemen voeden het platform, en via welke koppelingen?
  • Datatransformaties - wat gebeurt er met de data tussen bron en rapportage? Welke business rules zijn toegepast?
  • Semantic relations - hoe verhouden tabellen en velden zich tot elkaar, en tot de business-terminologie?
  • Data lineage - als een bronveld verandert, welke rapportages worden dan geraakt?
  • Verversingsschema’s - wanneer wordt wat ververst, in welke volgorde, en met welke afhankelijkheden?

Dit handmatig uitpluizen voor 1.200 tabellen is niet alleen tijdrovend. Het is foutgevoelig, incompleet, en nauwelijks herhaalbaar.

Onze aanpak: AI als analytische versneller

Wij kozen voor een andere route. In plaats van handmatig documenteren, lieten we AI het zware werk doen.

De metadata, transformatielogica en rapportagestructuren zijn uiteindelijk data. En als er iets is waar AI goed in is, dan is het het verwerken van grote hoeveelheden gestructureerde en semi-gestructureerde data.

Concreet zag onze aanpak er als volgt uit:

Stap 1: Extractie en structurering

We exporteerden de volledige configuratie van zowel de ETL/Data Warehouse-laag als de BI-omgeving. Denk aan tabeldefinities, veldbeschrijvingen, transformatieregels, rapportage-metadata en verversingsconfiguraties. Dit leverden we als gestructureerde input aan Claude Code, Anthropic’s AI-gestuurde development tool.

Stap 2: Analyse met Claude Code

Claude Code analyseerde de volledige dataset en produceerde gestructureerde overzichten per domein:

  • Een complete inventarisatie van alle bronsystemen en hun koppelingen
  • Transformatieketens van bron tot rapportage, inclusief business rules
  • Afhankelijkheidsgrafen tussen tabellen, velden en rapportages
  • Een volledig data lineage overzicht
  • Identificatie van afwijkingen: ongebruikte tabellen, circulaire afhankelijkheden, ontbrekende documentatie

Een van de eerste inzichten: de verreweg grootste tabellen in het platform bleken loggingtabellen in de database. Tabellen die ooit voor troubleshooting waren opgezet, maar in de loop der jaren waren uitgegroeid tot de dominante opslagvreter, zonder dat iemand daar actief op stuurde.

Wat hier uren kostte, had handmatig weken geduurd. En de output was niet alleen sneller, maar ook completer - AI mist geen tabellen omdat het vrijdagmiddag is.

Stap 3: Van technische output naar visuele communicatie

Hier zit misschien wel de grootste innovatie in onze aanpak. Ruwe technische analyse is waardevol voor het projectteam, maar onverteerbaar voor stakeholders. En juist die stakeholders moeten de beslissingen nemen.

We voedden de gestructureerde AI-output aan Google NotebookLM Studio. Dit stelde ons in staat om razendsnel te genereren:

  • Infographics die de architectuur visueel samenvatten per domein
  • Een korte video die de klant in een paar minuten door het complete landschap loodst

Het resultaat was dat we de klant in een sessie konden meenemen in de volledige huidige staat van hun datalandschap. Geen death-by-PowerPoint, geen 80 pagina’s documentatie die niemand leest. Visueel, begrijpelijk, en direct bruikbaar als basis voor besluitvorming.

De kracht van de keten

Het is verleidelijk om dit verhaal te reduceren tot “we hebben AI gebruikt”. Maar de werkelijke kracht zit niet in een tool. Het zit in de keten:

  • Claude Code voor razendsnelle analyse - het doorgronden van complexiteit op een schaal die handmatig niet haalbaar is
  • NotebookLM Studio voor visuele communicatie - het vertalen van technische complexiteit naar begrijpelijke content
  • Domeinexpertise als verbindende factor - AI levert de data, maar de interpretatie en de vertaling naar concrete aanbevelingen blijft mensenwerk

Zonder domeinkennis weet je niet welke vragen je aan de AI moet stellen. Zonder AI kun je de vragen niet op deze schaal beantwoorden. Zonder visuele communicatie bereik je de stakeholders niet. Elk onderdeel is essentieel.

Wat levert dit concreet op?

Voor deze klant leverde onze aanpak het volgende op:

  • Tijdsbesparing: uren in plaats van weken voor een volledige architectuuranalyse
  • Volledigheid: elke tabel, elk veld, elke afhankelijkheid in kaart gebracht, geen blinde vlekken
  • Toegankelijkheid: stakeholders die het landschap daadwerkelijk begrijpen, niet alleen het IT-team
  • Herhaalbaarheid: de analyse kan op elk moment opnieuw worden gedraaid wanneer het landschap verandert
  • Besluitvorming: een solide basis voor roadmap-keuzes rondom modernisering, rationalisatie of migratie

Tot slot

De tools die we vandaag tot onze beschikking hebben veranderen hoe we naar data-architectuur kijken. Niet als iets dat je eenmalig documenteert en vervolgens in een la legt, maar als een levend inzicht dat je continu kunt verversen en communiceren.

Wie nog twijfelt of AI een plek heeft in dit soort trajecten: wij hebben het bewijs op tafel gelegd. In uren, niet in weken.

Gerelateerde artikelen

Strategisch Data Gesprek

Wilt u uw eigen datalandschap laten doorlichten?

Meer informatie
Laten we praten

Plan een eerste consult voor uw data-uitdagingen.