door Peter Reddering
In de afgelopen jaren heeft Data & AI zich ontwikkeld van een experimenteel speelveld naar een strategisch kernonderdeel van organisaties. Waar data science ooit begon als een pioniersdomein — gedreven door nieuwsgierigheid, innovatie en losse experimenten — is in 2026 de realiteit fundamenteel veranderd. Data & AI zijn geen bijzaak meer. Ze raken primaire processen, beïnvloeden besluitvorming en hebben bij juiste toepassing (zie ons derde artikel) directe maatschappelijke impact.
Die verschuiving vraagt om meer dan betere modellen of snellere infrastructuur. Ze vraagt om organisatorische volwassenheid. Om duidelijke eigenaarschap, stevige governance en bewuste keuzes over hoe, waar en onder welke voorwaarden AI wordt ingezet. Succesvolle organisaties realiseren zich dat AI niet langer “erbij” kan worden gedaan door een innovatieteam of een losse data science‑groep, maar structureel verankerd moet zijn in de organisatie.
In dit artikel verkennen we die volwassenwording aan de hand van vijf stellingen en een heldere conclusie om van pionieren naar professionaliseren te gaan.
Stelling 1: Zolang eigenaarschap en governance impliciet blijven, blijft Data & AI kwetsbaar – hoe geavanceerd de technologie ook is.
Veel organisaties investeren fors in Data & AI-technologie. Moderne data platforms en krachtige AI-modellen: technisch lijkt alles mogelijk. Toch zien we dat de opbrengst vaak achterblijft bij de ambitie. Projecten lopen vast, verantwoordelijkheden vervagen en risico’s worden pas zichtbaar wanneer het misgaat.
De oorzaak ligt vaak niet in de technologie zelf, maar vrijwel altijd in het ontbreken van expliciet eigenaarschap en governance. Wie is verantwoordelijk voor datakwaliteit? Wie bepaalt of een AI-model in productie mag? Wie grijpt in als een model structureel ongewenste uitkomsten produceert?
In een pioniersfase is die vaagheid nog te overzien. Kleine teams, korte lijnen, experimenteerruimte. Maar zodra Data & AI een organisatie brede rol krijgen, wordt impliciet eigenaarschap een structureel risico. Zeker in sectoren met grote maatschappelijke impact – zoals zorg, overheid en financiële dienstverlening – is het niet langer acceptabel dat verantwoordelijkheden “ergens” of bij meerdere mensen liggen.
Professionele Data & AI-organisaties maken eigenaarschap expliciet. Ze benoemen data domeineigenaren, model verantwoordelijken en besluitstructuren. Niet om en optimalisatie met AI af te remmen, maar om die juist schaalbaar en betrouwbaar te maken. Governance lijkt een bureaucratische laag, maar is een randvoorwaarde voor duurzame waardecreatie.
Stelling 2: De kloof tussen business en technologie blijft bestaan zonder brugrollen zoals de Data & AI-translator‑translator.
Zolang deze werelden niet effectief verbonden worden, ontstaan misverstanden. De business verwacht “slimme inzichten”, terwijl de data er simpelweg niet geschikt voor is of de exacte businessvraag niet scherp genoeg geformuleerd. Technische teams bouwen oplossingen die correct zijn, maar nauwelijks aansluiten bij het werkproces en de informatiebehoefte. Het resultaat: frustratie aan beide kanten en oplossingen die onvoldoende gebruikt worden.
Daarom investeren volwassen organisaties expliciet in brugrollen, zoals de Data & AI-translator. Dit zijn geen extra projectmanagers, maar professionals die zowel het domein als de technologie begrijpen. Zij vertalen businessvragen naar analytische mogelijkheden, en technologische beperkingen naar realistische verwachtingen. En zorgen dat hetgeen dat gemaakt wordt ook goed gebruikt wordt en continu geoptimaliseerd wordt om te zorgen dat oplossingen niet ongebruikt in de kast belanden.
Deze rol is cruciaal in een tijd waarin AI steeds complexer wordt. Niet iedereen hoeft te begrijpen hoe een model exact werkt, maar iemand moet wel kunnen uitleggen wat de potentie en de impact is, waar de risico’s zitten en welke keuzes gemaakt worden. En dient de eisen die gesteld worden aan de AI oplossing – zoals performance, transparantie en herleidbaarheid – te kunnen opstellen, zodat de technische teams weten waaraan de oplossing moet voldoen. Zonder die vertaling blijft AI óf te technisch óf te vaag – en in beide gevallen ineffectief.
Stelling 3: Zonder een AI-ready datamodel en duidelijke architectuurprincipes blijft schaalbaarheid een illusie
Veel AI-initiatieven starten met een concrete use case. Een voorspelling, een classificatie, een aanbeveling. Dat werkt, op zijn minst tijdelijk. Maar zodra organisaties meerdere use cases willen combineren, hergebruiken of opschalen, lopen ze vast. De reden is vaak dat het onderliggende datamodel hier niet op is voorbereid. Data is versnipperd, semantiek verschilt per systeem en definities zijn impliciet of tegenstrijdig. Wat in het ene dashboard “klant” heet, betekent iets anders in het andere. AI-modellen bouwen voort op deze gebreken en versterken daarmee de verwarring.
Succesvolle organisaties investeren daarom in een AI-ready datamodel: een gedeelde, eenduidige en begrijpelijke beschrijving van kernbegrippen en entiteiten die analyse en besluitvorming ondersteunt.
Daarbij horen ook heldere architectuurprincipes en centrale kaders, met name nu low-code en no-code oplossingen steeds populairder worden. Zonder richtlijnen ontstaan tientallen schaduwoplossingen die lokaal waarde leveren, maar collectief of bij structureel, langdurig gebruik tot technische en organisatorische chaos leiden.
Stelling 4: Ethische besluitvorming is geen vinkje, maar een continu ontwerpproces.
In de volwassen Data & AI-organisatie verschuift ethiek van randvoorwaarde naar kernvraag. Niet omdat wetgeving dat afdwingt — al speelt regelgeving zoals de AI Act een belangrijke rol — maar ook omdat organisaties beseffen dat vertrouwen cruciaal is voor adoptie. Zowel voor intern gebruik (gebruikers die drukker zijn met de uitkomsten van AI controleren dan het gebruiken), als voor klanten en belanghebbenden rondom de organisatie (wat doen ze, hoe, waarom etc.).
Te vaak wordt ethiek gereduceerd tot een juridisch afvinkmoment: voldoet dit model aan de regels, ja of nee? Maar ethische vraagstukken zijn zelden zwart-wit. Ze gaan over doelbinding, uitlegbaarheid en maatschappelijke impact. Over wat technisch kan, versus wat wenselijk is. Het is belangrijk om te beseffen dat ethische discussies altijd vooraf gaan aan wetgeving; door alleen naar wetgeving te kijken, loop je als organisatie standaard achter de feiten aan.
Daarom zien we dat vooruitstrevende organisaties ethische besluitvorming expliciet organiseren. Ze betrekken multidisciplinaire teams, voeren impactanalyses uit en accepteren dat ethische vragen niet “opgelost” worden, maar continu aandacht vragen. Ethiek wordt daarmee geen rem op innovatie, maar een herkenbaar stuurmechanisme over wat we willen kunnen met Data en AI.
Stelling 5: BYOAI en schaduwgebruik zijn geen IT-probleem, maar een governance vraagstuk.
Met de opkomst van generatieve AI is het gebruik van externe tools explosief gestegen. Medewerkers gebruiken eigen AI-assistenten, uploaden data naar online AI diensten en automatiseren taken buiten het zicht van IT of compliance. Dit zogeheten BYOAI (Bring Your Own AI) en schaduwgebruik is begrijpelijk, de tools zijn krachtig en laagdrempelig maar vormen een reëel risico. Een verbod werkt zelden. Wat wel werkt, is duidelijk beleid: wat mag wel, wat niet, en waarom. Professionele organisaties erkennen dat schaduwgebruik een signaal is van onvervulde behoeften. In plaats van controleren en straffen kiezen zij voor richting, veilige alternatieven en bewustwording.
Conclusie: professionaliseren is geen eindstation, maar vindt plaats op basis van integratie, continue leren en verbeteren vanuit cultuur en een bewuste houding.
De volwassen Data & AI-organisatie van 2026 kenmerkt zich door integratie. Kostenbeheersing (FinOps), security, privacy, compliance en model governance. Deze aspecten worden niet als losse disciplines gezien, maar als integraal onderdeel van het datadomein. (Meer hierover, zie ons 2e artikel)
Dat vraagt om samenwerking over afdelingen heen en om nieuwe vaardigheden. Maar het resultaat is een organisatie die niet alleen technisch volwassen is, maar ook bestuurbaar, uitlegbaar en wendbaar.
De beweging van pionieren naar professionaliseren betekent niet dat experimenteren stopt. Integendeel. Het betekent dat experimenten plaatsvinden binnen een kader dat waarde, risico en verantwoordelijkheid in balans houdt.
In 2026 is Data & AI te belangrijk geworden om vrijblijvend te zijn. Organisaties die dit erkennen en investeren in volwassenheid (organisatorisch, ethisch en op basis van architectuur) leggen de basis voor duurzame impact.
Cmotions helpt organisaties richting te geven en inrichtingsvraagstukken in samenhang in kaart te brengen en uit te voeren. Datastrategie, organisatie en procesontwerp, datamanagement en implementatie daarvan.
Een keer sparren over hoe jouw organisatie kan groeien en duurzaam impact kan maken met data en AI?
Neem contact op met de schrijver van dit artikel Peter Reddering of door contact op te nemen met Cmotions via info@cmotions.nl of te bellen naar 088 – 200 75 00
Wil je weten hoe datavolwassen jou bedrijf op dit moment is en of jij helemaal klaar bent voor AI? Doe dan De Data Maturity Scan.
Als je met Data & AI werkt, wil je het volgende artikelen niet missen. Houd de website in de gaten of meld je hieronder aan en ontvang de vervolgartikelen en overig nieuws over Data & AI automatisch in je mailbox!



