door Jeanine Schoonemann

In ons overzichtsartikel over de Data & AI-trends voor 2026 beschreven we hoe het enthousiasme over generatieve AI onverminderd groot is, maar de toon fundamenteel is veranderd. De fase van “kijken wat er kan” maakt plaats voor de vraag: wat levert het op, tegen welke risico’s, en kunnen we het verantwoord opschalen? De AI-hype heeft plaatsgemaakt voor een volwassen realiteit waarin resultaat telt, niet de belofte.

Die realiteit confronteert veel organisaties met een ongemakkelijke kloof. Demo’s zijn spectaculair, succesverhalen inspirerend, de technologie ogenschijnlijk rijp. Toch blijven concrete resultaten vaak uit. Pilots die niet opschalen. Investeringen die niet renderen. Systemen die onvoldoende presteren. En een groeiend besef dat wat werkt voor anderen niet zomaar te kopiëren is. Want wat voor de consument aanvoelt als een simpele chatinterface – ChatGPT – is in werkelijkheid een complex AI-ecosysteem: geen losstaand model maar een volledig softwarepakket met talloze lagen, afhankelijkheden en randvoorwaarden.

In dit artikel duiken we dieper in deze realiteitskloof. We nemen je, door middel van scherpe stellingen, mee langs kritische inzichten die het verschil maken tussen AI als dure exercitie en AI als waardevolle investering. Met concrete voorbeelden uit de praktijk en heldere kaders laten we zien hoe je van inspiratie naar implementatie komt. Want waarde ontstaat niet door te kopiëren wat indruk maakt, maar door scherpe keuzes te maken over wat werkt in jouw situatie.

 

Stelling 1: Wie zich bij generatieve AI laat leiden door gelikte demo’s en successen van anderen, bouwt vooral luchtkastelen in plaats van echte waarde.

De directie zit in de bestuurskamer naar een demo te kijken. Een generatieve AI oplossing analyseert binnen seconden complexe documenten, schrijft heldere samenvattingen, en beantwoordt vragen alsof er een expert aan tafel zit. Het ziet er moeiteloos uit. Collega’s knikken enthousiast. Iemand noemt de concurrent die het ook al doet. De conclusie lijkt vanzelfsprekend: “Dit moeten wij ook hebben.”

Zes maanden later is de realiteit weerbarstiger. De pilot draait, maar presteert beneden verwachting. Het systeem dat zo intelligent leek, geeft regelmatig onvolledige of foute antwoorden. Medewerkers gaan de uitkomsten volledig nalopen in plaats van erop te vertrouwen. De efficiency-winst verdampt in controle-tijd en correcties.

Het demo effect

Dat is het demo-effect. Demo’s tonen wat technologie kán onder ideale omstandigheden. Gecureerde data, voorgedefinieerde scenario’s, geen ruis. Maar jouw werkelijkheid is geen demo. Jouw data is chaotisch, jouw systemen werken niet altijd even prettig samen, jouw processen bevatten uitzonderingen, jouw medewerkers werken niet volgens het ideale script.

Misschien nog wel belangrijker: een oplossing die in brede en algemene context verbazingwekkend goed werkt is ver verwijderd van betrouwbaar genoeg in jouw bedrijfs(kritische) proces. Een foutmarge van 5% klinkt acceptabel , totdat je beseft dat dit bij 1.000 transacties per dag 50 fouten betekent die handmatig gecorrigeerd moeten worden. Tussen verbazingwekkend goed en betrouwbaar genoeg ligt een wereld, en maanden aan werk en investering, van verschil.

De kopieervalkuil

Misschien denk jij nu wel, maar ik ben niet uitgegaan van een gelikte demo. Ik ben slim geweest, ik heb gekeken naar wat al werkt bij een andere organisatie en heb dat gekopieerd. Daar is toch niets mis mee? Dit is de kopieervalkuil: andermans succes is niet jouw blauwdruk.

De verleiding is begrijpelijk. Je leest dat een retailer met AI-gedreven personalisatie de conversie verhoogde. Een bank automatiseerde kredietbeoordelingen en versnelde doorlooptijden. Een verzekeraar zette chatbots in en reduceerde servicekosten. De use cases klinken helder, de resultaten meetbaar, het pad uitgestippeld. Dus kopieer je de aanpak. Dezelfde use case, vergelijkbare technologie, soortgelijke ambities. Maar wat je niet kopieert – omdat het niet in het succesverhaal staat – is de context waarin het werkte.

Die retailer had vijf jaar geïnvesteerd in dataplatforms en had schone, gestructureerde klantdata. Die bank werkte in een Amerikaanse compliance-context met andere eisen aan uitlegbaarheid. Die verzekeraar startte met repetitieve, laagrisico vragen waar fouten geen grote impact hebben.

Jouw context is anders. Jouw data zit verspreid over systemen. Jouw compliance-eisen zijn strenger. Jouw processen zijn complexer. En soms, hier komt de geografische dimensie om de hoek, is de technologie die zij gebruikten simpelweg nog niet beschikbaar in Europa, of niet compliant met GDPR of de AI Act. Daarnaast heb je nog te maken met culturele acceptatieverschillen. Wat daar werkt, werkt hier niet automatisch. Niet omdat de technologie tekortschiet, maar omdat de context niet klopt.

Kritisch denken en fundament

Het succesvol inzetten van AI realiseer je niet met een demo of een inspirerende use case. Dat is inspiratie, toont de potentie aan en helpt je met nadenken over oplossingen. Het succesvol inzetten van AI begint met een concreet probleem, een diepgaande analyse van het proces en de pijnpunten. Een belangrijke stap die tegenwoordig nog wel eens wordt overgeslagen: het overwegen van een niet-AI oplossing. AI komt pas in beeld waar dit waarde kan toevoegen. En als AI in beeld komt worden er eerst vragen beantwoord zoals:

  • Beschikken we over de juiste data en is deze van voldoende kwaliteit?
  • Welke technologie hebben we tot onze beschikking en welke mogelijkheden en kaders geeft dit ons?
  • Als we AI implementeren in deze processtap, voldoen we dan nog aan de (eigen) compliance eisen?
  • Welke foutmarge is realistisch en is deze acceptabel?

Dit zijn geen eenvoudige vragen om te beantwoorden, sommige antwoorden vereisen een stevig gesprek met de juridische afdeling, sommige antwoorden kunnen wellicht zelfs wel alleen gevonden worden door een pilot te doen. Niet eenvoudig, maar zeker onmisbaar voor een succesvol project. Door het antwoord op deze vragen helder te hebben, bouw je op een fundament in plaats van in de lucht.

Stelling 2: AI-assistenten zijn in 2026 breed inzetbaar, maar volledige procesautomatisering vraagt om robuustheid, compliance én explainability die (generatieve) AI niet standaard biedt.

In 2026 zijn AI-assistenten overal. Ontwikkelaars schrijven er code mee, analisten gebruiken het voor samenvattingen, marketeers laten ideeën en inspiratie genereren. De waarde is tastbaar, de adoptie breed, de risico’s laag. Maar zodra organisaties de stap willen maken naar volledige procesautomatisering, AI die niet assisteert maar autonoom beslist, stuiten ze op een harde realiteit: generatieve AI biedt, in tegenstellig tot “gewone” AI, niet de waarborgen die daarvoor nodig zijn.

Een ziekenhuis wil AI inzetten voor diagnostische suggesties. Een bank overweegt geautomatiseerde kredietbeoordelingen. Een verzekeraar denkt aan AI-gedreven claimafhandeling. De efficiency-winst lijkt evident. Tot je de kritische vragen stelt:

Is het reproduceerbaar? Bij kredietbeoordeling moet dezelfde aanvraag tot dezelfde uitkomst leiden. Generatieve AI geeft bij herhaling verschillende antwoorden. Dat is creatief bij het schrijven van teksten, maar onacceptabel bij beslissingen over leningen.

Kun je het uitleggen? Als een patiënt vraagt waarom deze diagnose werd voorgesteld, moet je meer kunnen zeggen dan “het model dacht dit.” Je moet kunnen aangeven welke symptomen, welke medische geschiedenis, welke factoren meewogen. Generatieve AI is een black box – je weet niet precies waarom het deze output gaf.

Bevat het bias? AI getraind op historische data reproduceert historische patronen. Als vrouwen in het verleden minder vaak een lening kregen, leert het model dat. Niet omdat vrouwen minder kredietwaardig zijn, maar omdat het patroon in de data zit. Hoe check je dat? Hoe voorkom je het?

Is het auditeerbaar? Bij een verkeerde claimafhandeling moet je achteraf kunnen reconstrueren hoe die beslissing tot stand kwam. Voor compliance, voor juridische verantwoording, voor het herstel van fouten. Bij generatieve AI is dat complex en vraagt dit extra aandacht (en tijd) in de ontwerpfase.

NB: Dit zijn allemaal punten waar we met regelgebaseerde systemen en interpreteerbare voorspellende modellen (i.e. “traditonele” AI) al een oplossing voor hebben gevonden, de inzet van dergelijke meer traditionele AI zal daarom in dit soort gevallen vaak ook de beste keuze zijn.

In veel sectoren is uitlegbaarheid geen nice-to-have maar een wettelijke eis. De AVG geeft mensen het recht om uitleg te krijgen over geautomatiseerde beslissingen. De AI Act stelt expliciete eisen aan transparantie en bias-beheersing bij hoogrisicogebruik. Generatieve AI voldoet daar niet aan. Niet omdat de technologie slecht is, maar omdat het ontworpen is voor andere doeleinden: flexibiliteit en creativiteit, niet consistentie en verantwoording.

Dit betekent gelukkig niet dat generatieve AI per definitie niet ingezet kan worden, maar dat het geen volledige automatisering betreft, er blijft altijd een “human-in-the-loop”. Er kan zo nog steeds een aanzienlijke tijdswinst worden behaald, zonder dat de echte beslissingen uit handen worden gegeven aan generatieve AI. Denk hierbij aan samenvattingen van (medische) brieven die nog geredigeerd worden door een inhoudsdeskundige. Het ondersteunen van een beslisser door op basis van de vraag en achtergrondinformatie direct te verwijzen naar relevante bestanden en hoofdstukken. Documenten voorzien van relevante tags gemaakt door generatieve AI die het voor de analisten eenvoudiger maakt om de juiste informatie boven tafel te krijgen. Daarnaast kan een oplossing met generatieve AI ook bestaan uit een combinatie met andere technieken, waardoor het als geheel wél voldoet aan onze eisen. We moeten generatieve AI inzetten waar het zo krachtig in is en de mens of andere technieken waar die juist weer beter in zijn.

Stelling 3: Het zwart-wit denken over AI leidt tot verlamming; succesvolle organisaties omarmen de grijstinten en sturen actief bij in het ethische debat.

Wanneer organisaties nadenken over de implementatie van AI en de bijbehorende ethische afwegingen, ontstaat vaak een spagaat. Aan de ene kant zijn er terechte zorgen: wat als het systeem discrimineert? Wat als we niet kunnen uitleggen waarom een beslissing werd genomen? Wie is aansprakelijk als het misgaat? Deze vragen zijn belangrijk, maar leiden vaak tot verlamming.

Organisaties besluiten dat het allemaal te riskant is, dat er te veel onbekende factoren zijn. Ze stellen AI-projecten uit tot alle ethische dilemma’s zijn opgelost, tot de wet- en regelgeving volledig helder is, tot ze absolute zekerheid hebben dat er niets mis kan gaan. Het klinkt als een voorzichtige, verantwoorde aanpak. Maar in werkelijkheid betekent het dat er jarenlang niets gebeurt. En dat terwijl de verwachting dat deze technieken het veld weer verlaten even onrealistisch lijkt als de hoop dat de ethische dilemma’s zichzelf gaan oplossen. Want die absolute helderheid komt niet – ethische vraagstukken blijven per definitie complex en contextafhankelijk.

Er zijn ook organisaties, die in een soort tegenreactie op verlamming, te weinig bezig zijn met ethiek en de focus heel sterk op innovatie leggen om maar niet achterop te geraken. De tegenwerpingen worden afgedaan met: dat komt later wel, het moet ons nu niet afremmen.

Tussen deze uitersten opereren de organisaties die het wél succesvol doen. Ze accepteren dat perfecte systemen niet bestaan en dat ethische vragen complex blijven. Maar ze gebruiken dat niet als excuus om stil te staan of om zonder waarborgen door te rennen. In plaats daarvan kiezen ze bewust voor transparante modellen, voeren ze regelmatige checks uit op discriminatie, betrekken ze stakeholders bij ethische afwegingen, starten ze met pilots, en bouwen ze de mogelijkheid in om te leren en bij te sturen.

Deze aanpak vraagt dat ethiek geen laatste controle is, maar een ontwerpprincipe. Bij elk AI-project: check je eerlijkheid? Kun je uitleggen hoe het werkt? Wie draagt verantwoordelijkheid? Kun je aanpassen? Ethische complexiteit is geen reden voor stilstand of voor blinde actie. Het is een reden voor zorgvuldige beweging. Meer over ethiek en AI lees je hier.

Van experiment naar gerichte en verantwoorde inzet van generatieve AI

Generatieve AI biedt enorme mogelijkheden. De demo’s liegen niet, de succesverhalen zijn echt, de technologie is indrukwekkend. Maar tussen die belofte en duurzame waarde ligt een realiteitskloof die alleen te overbruggen is met bewuste keuzes.

Keuzes om te beginnen bij je eigen probleem, niet bij andermans oplossing. Om je te laten inspireren door wat mogelijk is, maar kritisch te blijven over wat haalbaar is in jouw context.

Keuzes om het verschil te begrijpen tussen generatieve AI als assistent of als autonome beslisser. Om waarborgen te bouwen waar die nodig zijn.

Keuzes om ethische complexiteit niet als excuus te gebruiken voor stilstand, maar als reden voor zorgvuldigheid. Om te experimenteren met transparante modellen of processen, met pilots die ruimte bieden om te leren en bij te sturen.

Waarde ontstaat niet door het slimste model of de nieuwste technologie. Het ontstaat door de best ontworpen keten van mens, data, model en proces, met scherpe keuzes over waar AI waarde toevoegt en welke waarborgen nodig zijn.

Dit artikel richtte zich op één van de drie ontwikkelingen uit ons hoofdartikel: van experiment naar gerichte en verantwoorde inzet van generatieve AI. In andere artikelen gaan we dieper in op strategische keuzes rond datasoevereiniteit en cloudkosten, en de organisatorische volwassenwording die nodig is om Data & AI duurzaam in te bedden.

Nieuwsgierig naar de verdieping of wat (generatieve) AI voor jou kan betekenen? Volg onze reeks door je hier beneden aan te melden of neem contact op.

 

Als je met Data & AI werkt, wil je het volgende artikelen niet missen. Houd de website in de gaten of meld je hieronder aan en ontvang de vervolgartikelen en overig nieuws over Data & AI automatisch in je mailbox!

Aanmelden Trendartikelen

Naam(Vereist)
E-mailadres(Vereist)

Recente berichten