Start maken?
Van ChatGPT tot AI Act: zo houden wij AI begrijpelijk voor klanten
.png)
De afgelopen jaren was het onmogelijk om AI te missen. ChatGPT, Gemini, Nano Banana, Perplexity, Copilot, Claude AI, generatieve AI, agentic AI, nieuwe wetgeving, nieuwe risico’s, nieuwe kansen. Elke presentatie, elk event en elk vakartikel leek wel iets over AI te moeten zeggen. 2025 was het jaar waarin de hype overging in dagelijkse praktijk. Klanten zijn er niet meer alleen nieuwsgierig naar, maar krijgen er ook heel concrete vragen over op hun bord.
En nu is het januari 2026. De vraag die wij het vaakst horen, klinkt ongeveer zo:
“Leuk hoor, al die AI, maar wat betekent dit nu concreet voor ons. Wat levert het op, wat zijn de risico’s en wat moeten we in hemelsnaam met die AI Act.”
In deze blog vertellen we hoe wij daar met klanten mee omgaan. Niet als juridisch handboek of technisch deep dive, maar als verhaal uit de praktijk. Hoe we AI-use-cases vertalen naar begrijpelijke businessvoordelen. Hoe we risico’s nuchter aanpakken. En hoe we helpen met regels zoals de AI Act zonder dat het een papiercircus wordt. Minder hype, meer helderheid. Een goed begin van het jaar.
Van ChatGPT naar “wat levert het op in mijn werk”
Toen ChatGPT en andere generatieve AI-oplossingen groot werden, stonden veel organisaties even in de stand “wow, dit kan veel”. Al snel volgde de volgende fase. Medewerkers gingen zelf experimenteren, IT kreeg er een nieuw onderwerp bij en directies vroegen zich af of ze nu ineens een AI-strategie nodig hadden.
In gesprekken met klanten beginnen wij bewust niet bij het model of het platform, maar bij de werkvloer. Waar gaat nu tijd verloren. Welke processen zijn traag of foutgevoelig. Waar schrijven mensen steeds opnieuw dezelfde soort teksten. Waar moeten collega’s grote hoeveelheden informatie doorploegen om tot een besluit te komen.
Vanuit die vragen zoeken we naar concrete AI-use-cases. Geen slogans als “we gaan iets met AI doen”, maar heel praktische situaties. Een servicedesk die standaardvragen sneller wil afhandelen. Een projectteam dat veel tijd kwijt is aan verslaglegging. Een securityteam dat door de bomen het bos niet meer ziet in logdata en alerts. Per use-case kijken we: wat proberen we precies op te lossen, welke AI-oplossingen passen daarbij en welke voorwaarden moeten we vooraf regelen.
Belangrijk is dat we klein beginnen. Een beperkte pilot met een duidelijk doel, een helder meetmoment en een afgesproken periode. Bijvoorbeeld: drie maanden lang AI gebruiken om mails te sorteren en voor te bereiden, en dan samen kijken hoeveel tijd dat scheelt, hoe de kwaliteit is en waar het frustreert. Door het zo te doen, blijft AI geen abstract verhaal, maar iets wat mensen ervaren in hun eigen werk.
AI wordt dan geen magische laag over de hele organisatie, maar een gereedschap dat op specifieke plekken verschil maakt. Dat is overzichtelijk, uitlegbaar en vooral: goed bij te sturen als het anders loopt dan gedacht.
Nuchter omgaan met AI-risico’s
Waar mogelijkheden groeien, nemen risico’s toe. Met AI is dat niet anders. Datalekken, vertrouwelijke informatie in publieke AI-diensten, verkeerde antwoorden die toch serieus worden genomen, deepfakes en AI-gestuurde aanvallen. Het lijstje wordt steeds langer.
De reactie bij organisaties schiet vaak naar een van de twee uitersten. Of de deur gaat wagenwijd open, of alles wordt in een reflex dichtgezet. De kunst is om daar tussen te blijven en AI-risico’s net zo volwassen te benaderen als andere risico’s.
Wij beginnen meestal met een inventarisatie die verrassend simpel klinkt. Welke AI-tools worden er al gebruikt. Officieel én officieus. Waar gaan data naartoe. Welke soorten informatie komen in die systemen terecht. Vaak blijkt dat er al veel gebeurt, zonder dat daar beleid of beveiliging omheen zit. “Schaduw AI” dus, net zoals we dat vroeger met schaduw IT zagen.
Pas als je dat in beeld hebt, kun je gerichte keuzes maken. Sommige dingen zijn meteen duidelijk. Vertrouwelijke klantdata en persoonsgegevens horen bijvoorbeeld niet in publieke chatbots thuis. Maar er zijn ook grijze gebieden. Interne samenvattingen, conceptteksten, analyse van logdata. Die vragen om nuance en context. Daar kijken we samen met de klant naar, vanuit hun sector, hun compliance-eisen en hun risicobereidheid.
Technisch kun je veel regelen. AI-functionaliteit binnen bestaande security tooling en cloudplatforms gebruiken in plaats van willekeurige losse diensten. Data beperken tot goedgekeurde bronnen. Toegang en logging strak inrichten. Maar techniek is nooit genoeg. Er hoort altijd duidelijke uitleg bij. Wat mag wel, wat mag niet, waarom is dat zo en wat doe je als je twijfelt.
Een principe komt steeds terug. AI mag nooit de enige check zijn. Iemand moet kritisch kijken naar wat een systeem uitspuugt, zeker als het gaat om besluiten met impact. We helpen klanten daarom niet alleen om AI veilig in te richten, maar ook om rollen en verantwoordelijkheden scherp te definiëren. Wie mag waar op vertrouwen. Wanneer is altijd een menselijke eindcontrole nodig. En hoe borg je dat in processen.
Zo wordt AI niet een ongrijpbaar risico, maar een beheersbaar onderdeel van de dagelijkse praktijk.
AI Act en andere regels zonder papierstorm
En dan die AI Act. Voor veel organisaties is dit het moment waarop de stress toeneemt. Nieuwe Europese regels, classificaties van risico’s, verplichtingen voor documentatie en toezicht. De reflex om dit bij juridische afdelingen te parkeren is begrijpelijk, maar ook gevaarlijk. AI gaat over technologie én over businessprocessen, niet alleen over wetsteksten.
Onze aanpak is om de AI Act terug te brengen tot een paar praktische vragen. Waar gebruik je AI voor. Zijn er toepassingen die een grote impact kunnen hebben op mensen, bijvoorbeeld bij selectie, beoordeling, toegang of kritieke processen. Maak je zelf AI-systemen of maak je gebruik van diensten van anderen. En kun je uitleggen waarom je een bepaalde AI-oplossing inzet en hoe je omgaat met de uitkomsten.
In plaats van organisaties zelf door tientallen pagina’s regelgeving te laten worstelen, vertalen we dat naar stappen die in te passen zijn in bestaande structuren. Een register van AI-toepassingen, net als je misschien al een verwerkingsregister voor privacy hebt. Een eenvoudige risicoklasse indeling per toepassing. Afspraken over testen, monitoring en documentatie, afgestemd op de zwaarte van de toepassing.
Belangrijk is dat we de AI Act niet als rem maar als kader neerzetten. De meeste organisaties hoeven niet van nul naar een compleet nieuw governance-apparaat. Vaak zijn er al processen voor informatiebeveiliging, privacy, change management en interne controle. AI kan daar meestal in worden ingeweven, in plaats van erbovenop te komen.
Het doel is niet: zoveel mogelijk documenten. Het doel is: kunnen uitleggen wat je doet, waarom je dat doet en hoe je waarborgen hebt ingericht. Naar toezichthouders, maar vooral naar klanten, medewerkers en partners.
Weg uit de hype, naar volwassen omgang met AI
Als je alle gesprekken van het afgelopen jaar naast elkaar legt, zie je een duidelijke verschuiving. Klanten komen minder met de vraag “wat is er allemaal mogelijk” en meer met “wat heeft zin voor ons”. Er is minder behoefte aan spectaculaire demo’s en meer aan eerlijke verhalen over wat wel en niet werkt.
Onze rol is in die verschuiving helder. Wij zijn geen AI-laboratorium dat los staat van de realiteit, en ook geen partij die alles van AI afsluit uit angst. We zitten ertussenin: nuchter, nieuwsgierig en altijd met security en werkbaarheid in het achterhoofd. We kennen de kant van de technologie, met copilots, agentic AI en AI in securityplatforms, maar we kennen ook de kant van het bestuur dat zich zorgen maakt over risico’s en verantwoordelijkheid.
AI begrijpelijk maken betekent voor ons drie dingen.
- Eén: altijd beginnen bij de praktijk van de klant. Geen generieke AI-verhalen, maar use-cases die raken aan echte processen, echte mensen en echte knelpunten.
- Twee: risico’s niet bagatelliseren, maar ook niet groter maken dan nodig. Met heldere keuzes, goede inrichting en duidelijke afspraken kun je veel spanningen wegnemen.
- Drie: regelgeving zoals de AI Act niet zien als een vijand, maar als een aanleiding om structuur aan te brengen. Net genoeg governance om verantwoord te kunnen innoveren, zonder de organisatie te verlammen.
2026: minder paniek, meer bewuste keuzes
Als we vooruitkijken naar 2026, verwachten we niet minder AI, integendeel. AI zal nog meer verweven raken in tools, processen en diensten. De echte vraag wordt niet meer “of” je AI gebruikt, maar “waar, hoe en onder welke voorwaarden”.
Juist daarom willen wij het jaar beginnen met AI zonder stress. Geen grote beloften, wel concrete hulp. We helpen je in kaart brengen welke AI je nu al gebruikt. We denken mee over kansrijke use-cases die daadwerkelijk iets opleveren. We kijken met je mee naar risico’s en helpen je die terug te brengen tot beheersbare proporties. En we vertalen regels zoals de AI Act naar praktische stappen die passen bij jouw organisatie.
Wil je 2026 gebruiken om van AI-hype naar volwassen AI-gebruik te gaan, dan praten we graag met je verder. In normale mensentaal, met oog voor techniek én mens, en altijd met een nuchtere blik op veiligheid en werkbaarheid.
AI gaat het werk niet voor ons oplossen. Maar het kan ons wel helpen om het slimmer, sneller en rustiger te doen. Zolang we zelf aan het stuur blijven, is dat geen reden voor paniek, maar een goede kans om van 2026 een heel sterk jaar te maken.


.png)
