Start maken?
Van chatbot naar digitale collega: wat de nieuwste AI-updates van Claude, Perplexity, ChatGPT, Copilot en OpenClaw betekenen voor bedrijven
.png)
De belangrijkste AI-ontwikkeling van de afgelopen weken is niet alleen dat modellen slimmer zijn geworden. De echte verschuiving is dat vrijwel alle grote spelers opschuiven van antwoorden geven naar werk uitvoeren. Anthropic positioneert Claude sterker voor computer use en security, Perplexity verandert van zoekassistent in een agentic “computer”, OpenAI duwt ChatGPT verder richting professioneel werk en Excel, Microsoft zet Copilot om naar Cowork en embedded agents, en OpenClaw laat zien hoe aantrekkelijk, maar ook hoe risicovol, open agent-platforms zijn geworden. Voor organisaties is dat groot nieuws, want zodra AI niet alleen meedenkt maar ook handelingen uitvoert, worden identity, governance, logging, prompt-injectionweerbaarheid en toegangsbeheer ineens net zo belangrijk als modelkwaliteit.
Wat wij nu zien, is een markt die volwassen wordt. In 2024 en 2025 draaide het gesprek vaak om “welk model is het slimst?”. In maart 2026 draait het gesprek steeds vaker om iets anders: welk platform kan veilig taken uitvoeren in mijn werkcontext, met mijn data, binnen mijn regels? Voor de zakelijke markt, en zeker voor kritieke sectoren, is dat een veel relevantere vraag. Een AI-tool die een goed antwoord geeft is nuttig, maar een AI-agent die toegang krijgt tot mailboxen, agenda’s, Excel-bestanden, browsers, interne kennis en klantdata verandert direct je risicoprofiel.
Claude AI: sterker in computer use, code en security, maar houd de scope strak
Wij houden Claude hier bewust wat compacter, omdat een diepgaande Claude- en Claude Security-analyse later deze week nog apart komt. Wat nu vooral opvalt, is dat Anthropic Claude Sonnet 4.6 neerzet als een brede upgrade voor coding, computer use, long-context reasoning, agent planning, knowledge work en design, inclusief een 1M token context window in beta. Daarnaast bracht Anthropic Claude Code Security in research preview uit, een capability die codebases scant op kwetsbaarheden en gerichte patches voorstelt voor menselijke review. Anthropic laat ook steeds nadrukkelijker zien dat Claude niet alleen productiviteit ondersteunt, maar ook daadwerkelijk securitywerk kan versnellen: in samenwerking met Mozilla vond Claude Opus 4.6 in twee weken 22 kwetsbaarheden in Firefox, waarvan 14 als high severity werden ingeschaald.
Voor bedrijven betekent dat dat Claude nu vooral interessant is voor vier typen werk: documentanalyse en synthese op grote contexten, agentic coding in grotere codebases, desktop- of browsergebaseerde computer use, en security-assisted development. Anthropic koppelt daar ook ecosysteemuitbreiding aan, zoals verdere computer-use vooruitgang via de Vercept-overname en Claude in Excel, waar Sonnet 4.6 inmiddels beschikbaar is. Dat maakt Claude aantrekkelijk voor kenniswerk, softwareteams en analisten, maar ook riskanter wanneer diezelfde AI brede toegang krijgt tot spreadsheets, formulieren, browsers en gevoelige datasets.
De securityles bij Claude is daarom dubbel. Enerzijds laat Anthropic zien dat frontier-modellen echt bruikbaar worden voor defensieve securitytaken. Anderzijds geldt juist bij computer use en code-automatisering dat menselijke review, scope-beperking en logging niet als optionele extra behandeld mogen worden. In kritieke sectoren zou Claude dus eerder moeten landen als gecontroleerde assistent binnen afgebakende workflows, niet als generieke superuser met te brede rechten.
Perplexity: van zoekmachine naar uitvoerende research- en work-agent
Perplexity is in de afgelopen weken misschien wel het duidelijkste voorbeeld van deze marktverschuiving. Uit de officiële changelog blijkt dat Perplexity niet meer alleen inzet op betere antwoorden, maar op Perplexity Computer, met updates als Skills, Model Council, Voice Mode en een GPT-5.3-Codex coding subagent. Daarnaast voegde Perplexity GPT-5.4 toe voor Pro- en Max-gebruikers, en verscheen eerder al Computer zelf, plus Comet-upgrades, enterprise Memory en nieuwe enterprise security controls. In de eigen communicatie spreekt Perplexity inmiddels letterlijk vanuit het idee dat “AI de computer is”.
Dat is strategisch slim. Perplexity probeert zich los te trekken van het frame “alternatief voor Google” en schuift op richting een werklaag bovenop meerdere frontier-modellen. Model Council laat drie modellen parallel draaien, Skills slaan herbruikbare workflows op, Voice Mode maakt sturing tijdens uitvoering mogelijk, en de Codex-subagent trekt Perplexity richting softwarebouw en automatisering. Voor zakelijke gebruikers is dat interessant, omdat het onderzoek, redactie, analyse en uitvoering in één flow zet. Voor teams die nu nog tussen browser, notities, documents en scripts springen, is dat precies de frictie die zulke tools willen wegnemen.
Tegelijk wordt Perplexity daardoor ook een serieuzer governancevraagstuk. Zodra een researchtool verandert in een operator met modelorkestratie, memory, voice en browser-acties, verschuift het risico van “onjuist antwoord” naar “onjuiste actie”. Dat geldt nog sterker nu Perplexity volgens recente berichtgeving ook Personal Computer naar voren schuift, een op een spare Mac draaiende agent met toegang tot bestanden en apps, maar wel met audit trail, action reversibility en een kill switch. Die extra veiligheidslagen zijn positief, maar ze laten ook zien dat Perplexity zelf begrijpt hoe groot de blast radius van zulke tools kan worden.
Wat betekent dit voor jouw bedrijf?
Perplexity is heel sterk als research- en synthesiselaag, en snel interessanter als agentisch werkplatform. Maar het hoort voorlopig eerder in gecontroleerde omgevingen met afgebakende taken dan direct in breed operationeel gebruik. Zeker waar compliance, vertrouwelijke bronnen of kritieke besluitvorming spelen, wil je eerst duidelijke regels rond brongebruik, outputvalidatie, connectorrechten en menselijke finale goedkeuring.
OpenClaw: fascinerend, krachtig, open, en voor bedrijven de hoogste risicocategorie
Op basis van de recente bronnen gaat het hier om een open-source, self-hosted persoonlijke AI-assistent die via een gateway verbonden kan worden aan bestaande chatkanalen zoals WhatsApp, Telegram, Slack, Discord, Teams en meer. Het officiële verhaal is aantrekkelijk: OpenClaw is “the AI that actually does things”, met use cases als inboxbeheer, e-mails versturen, agenda’s beheren en workflows automatiseren vanuit chat. Juist dat maakt het populair onder developers en power users.
Maar precies daar begint voor bedrijven ook het probleem. Volgens de officiële securitydocumentatie slaat OpenClaw lokale sessielogs op schijf op, onder de .openclaw-map, en moet disk access als trust boundary worden behandeld. In gewone taal betekent dat: wie bij de host kan, kan mogelijk ook transcripties, context en geheugen lezen. Daarnaast waarschuwt OpenClaw zelf dat skills code zijn die draaien in de context van je agent, met toegang tot tools en data. Daarom heeft het project inmiddels scanning via VirusTotal toegevoegd aan de skill-marktplaats. Dat is een goed signaal, maar ook een impliciete erkenning dat skill supply chain security een serieus risico is.
Daarbovenop komen externe signalen die voor bedrijven lastig te negeren zijn. Reuters meldde gisteren dat Chinese overheidsinstanties en staatsbedrijven personeel waarschuwen tegen installatie van OpenClaw op werk- en sommige privé-apparaten vanwege risico’s zoals datalekken, misbruik en verwijdering van data. Daarnaast is er in de afgelopen dagen bericht over malafide OpenClaw-installers en nepversies op GitHub en via Bing-advertenties die malware verspreidden. Oftewel: OpenClaw is technisch interessant, maar organisatorisch valt het in dezelfde categorie als experimentele admin tooling met agentische powers. Voor een bedrijf is dat geen standaard productiviteitsapp, maar een platform dat je alleen na strenge validatie, segmentatie en hardening zou mogen toelaten.
Ons praktische oordeel is daarom helder: OpenClaw is relevant om te begrijpen, zeker omdat het de richting van agentische tooling goed laat zien. Maar voor de meeste organisaties, en al helemaal voor kritieke sectoren, is dit nu vooral een red-flag technologie als er geen duidelijke sandboxing, host-isolatie, secrets management, skill governance en monitoring bovenop zitten. Dit is precies het type tool dat in een lab of streng afgebakende pilot thuishoort, niet ongecontroleerd op werkstations of shared admin-omgevingen.
ChatGPT: professioneler, dieper in workflows, en daardoor ook gevoeliger voor connector- en agentrisico’s
OpenAI heeft in de afgelopen week het productverhaal van ChatGPT verder verschoven richting professioneel werk. GPT-5.4 kwam uit als het meest capabele frontier-model voor professional work, waarbij GPT-5.4 Thinking in ChatGPT nu een upfront plan van zijn thinking kan geven en beter deep web research uitvoert op complexe queries. Tegelijk is GPT-5.3 Instant doorgevoerd als de meer alledaagse, soepelere werkmodus, en zijn GPT-5.1-modellen inmiddels uit ChatGPT gehaald ten gunste van GPT-5.3 Instant, GPT-5.4 Thinking en GPT-5.4 Pro.
Misschien nog belangrijker voor de zakelijke markt is dat OpenAI ChatGPT for Excel in beta heeft gelanceerd, samen met nieuwe financiële data-integraties. Daarmee komt ChatGPT direct in spreadsheets terecht, kan het modellen bouwen of updaten, scenario’s draaien en outputs genereren op basis van cellen en formules. Die functie rolt uit voor meerdere betaalde plans, terwijl admins in Enterprise, Edu en Teacher workspaces de toegang expliciet kunnen aanzetten voor specifieke gebruikers en groepen. Voor finance-, operations- en researchteams is dat een grote stap, omdat ChatGPT hierdoor veel dieper in bestaande werkstromen komt dan alleen als losse chattool.
Maar precies dat maakt security en governance kritischer. OpenAI publiceerde deze week ook een stuk over hoe AI-agents tegen prompt injection moeten worden ontworpen, en daar zit eigenlijk de kern van het huidige risicobeeld in: zodra agents browsen, informatie ophalen en acties uitvoeren, lijken de gevaarlijkste prompt injections minder op simpele jailbreaks en meer op social engineering in context. OpenAI zegt daar expliciet bij dat verdediging niet alleen kan leunen op inputfiltering, maar vooral op systeemontwerp dat de impact van manipulatie beperkt. Dat is een belangrijk signaal voor elke organisatie die agents inzet op mailboxen, browsers, documenten of interne portals.
Daar komt nog iets praktischs bij: in de Business release notes staat dat de scopes voor Microsoft-apps zoals Outlook Calendar, Outlook Email, SharePoint en Teams recent zijn bijgewerkt en opnieuw door Microsoft Entra-admins beoordeeld moeten worden. Dat lijkt een kleine release note, maar het is precies het soort detail waar governance echt over gaat. Bij agentische AI verschuift risico vaak niet door het model zelf, maar door connectorrechten die ongemerkt breder worden.
Microsoft Copilot: de stap van assistent naar embedded execution in de werkplek
Microsoft maakt van Copilot op dit moment misschien wel de meest directe enterprisezet. In Wave 3 beschrijft Microsoft een nieuwe versie van Microsoft 365 Copilot die verder gaat dan assistentie en embedded agentic capabilities toevoegt. Daarin zit Copilot Cowork, dat meerstapswerk over tijd heen kan uitvoeren, plus Work IQ om werkcontext beter te begrijpen, en Agent 365 om agents observeerbaar, bestuurbaar en te beveiligen te maken wanneer organisaties opschalen van experiment naar enterprisegebruik. Opvallend is bovendien dat Microsoft expliciet zegt nauw samen te werken met Anthropic en Claude Cowork-technologie naar Microsoft 365 Copilot te brengen, als onderdeel van een multimodelstrategie.
Dat maakt Copilot heel relevant voor organisaties die al diep in Microsoft 365 zitten. In de recente updates zien we ook hoe Microsoft die agentische laag direct in dagelijkse apps trekt: in Outlook kan Copilot meetings plannen vanuit e-mailthreads, meeting prep verrijken met context en documenten, en meeting time analytics visualiseren; in Word mag Copilot standaard documenten direct bewerken, waarbij wijzigingen reviewable en reversible blijven; en Microsoft benadrukt bovendien dat Copilot in Excel, Word en PowerPoint nu meerstapsacties direct in bestanden kan uitvoeren.
Voor bedrijven is Copilot daardoor waarschijnlijk de meest logische kandidaat om als eerste breed te schalen, juist omdat het ingebed zit in bestaande identiteit, data en beheerlagen. Maar ook hier geldt: de kracht zit in context, en dus zit het risico daar ook. Hoe meer rechten Copilot krijgt in mail, SharePoint, Teams, agenda’s en documenten, hoe groter de noodzaak om data classification, least privilege, DLP, auditability en agent governance op orde te hebben. Microsoft lijkt dat zelf ook te erkennen door Agent 365 expliciet neer te zetten als governance- en securitylaag, in plaats van puur als productiviteitsfeature.
De rode draad: alle grote AI-spelers schuiven op naar actie, en daardoor verschuift ook het risicomodel
Als we Claude, Perplexity, ChatGPT, Copilot en OpenClaw naast elkaar leggen, zien we één duidelijke marktbeweging. De winnaars willen niet langer alleen de beste antwoorden geven. Ze willen de werklaag worden die informatie ophaalt, context begrijpt, meerdere modellen orkestreert, taken uitvoert en outputs terugschrijft naar de tools waar medewerkers al werken. Dat is commercieel logisch, maar securitymatig fundamenteel anders dan de chatbotfase. Het gaat dan niet meer alleen om hallucinations of antwoordkwaliteit, maar om rechten, actieradius, bewijsbaarheid, isolatie, rollback, monitoring en menselijke escalatiepaden.
Voor kritieke sectoren geldt dit nog sterker. In zorg, overheid, logistiek, energie, industrie en financiële dienstverlening is de vraag niet of een AI-tool indrukwekkend is, maar of die tool past binnen bestaande controlemechanismen. Een AI-agent die een document samenvat is iets anders dan een agent die persoonsgegevens ophaalt, agenda’s verplaatst, een spreadsheetmodel aanpast of op basis van externe content een interne actie uitvoert. Juist daarom moeten organisaties nu stoppen met denken in “AI-tooling” en beginnen met denken in “autonomie-niveaus”, “permissiegrenzen” en “menselijke finale controle”.
Wat onze vendoren hier nu al mee doen
De interessante vervolgvraag is natuurlijk: hoe haakt het security-ecosysteem hierop aan? Daar zien we dat veel van de relevante Flowerbed-vendoren inmiddels niet meer alleen “AI gebruiken”, maar AI ook expliciet proberen te beveiligen of juist inzetten tegen AI-gedreven dreigingen.
Fortinet heeft vorige week FortiAIGate gepositioneerd als AI runtime security gateway voor LLM-workloads. Volgens Fortinet beschermt die laag tegen prompt injection, datalekken, model poisoning en excessief resourcegebruik, dus precies de risico’s die groter worden naarmate apps en agents directer met modellen praten. Tegelijk waarschuwde Fortinet deze week dat AI-assisted attacks op edge devices sneller en onvermijdelijker worden. Dat is relevant, want het bevestigt dat AI-security niet alleen over je eigen copilots gaat, maar ook over hoe aanvallers dezelfde automatisering inzetten.
TrendAi zet zwaar in op AI-security als apart domein. In zijn State of AI Security Report stelt Trend dat AI-systemen in de tweede helft van 2025 “ground zero” voor cyberrisico waren, met kritieke flaws over de hele stack. Daarnaast demonstreerde TrendAI deze week op [un]prompted 2026 hoe documenten AI-gedreven KYC-pijplijnen kunnen misleiden en introduceerde het FENRIR, een geautomatiseerd systeem voor het vinden van AI-kwetsbaarheden op schaal. Voor bedrijven is dat belangrijk, omdat het laat zien dat documentinvoer, modelinteracties en agentic pipelines zelf een aanvalsoppervlak vormen.
KnowBe4 beweegt ondertussen van traditionele awareness naar human-risk orchestration met AI. AIDA Orchestration is nu volledig live en automatiseert gepersonaliseerde phishingtests en training voor iedere gebruiker op basis van realtime data. Daar bovenop lanceerde KnowBe4 op 10 maart een Custom SAPA-agent, die security awareness assessments afstemt op de specifieke tools, policies en omgeving van een organisatie. Dat is vooral waardevol in een tijd waarin social engineering, AI-phishing en deepfakes sneller gepersonaliseerd worden dan klassieke awarenesscampagnes kunnen bijbenen.
Arctic Wolf pakt het vanuit de SOC-kant aan. Het positioneert Alpha AI als een AI-laag die advanced threats autonoom helpt voorkomen en arbeidsintensieve workflows automatiseert, gebouwd op meer dan 10 miljoen uur securitykennis uit zijn commerciële SOC. In de productupdates van februari is ook te zien hoe Arctic Wolf de integratie met Abnormal Security inzet om behavioral AI-detecties uit cloudmail direct in de Aurora Platform-workflows te krijgen, wat detection en response op e-mailgedreven aanvallen versnelt. Dat is een logische richting, omdat e-mail, identity en social engineering juist door AI sneller en overtuigender worden.
Microsoft is hier tegelijk vendor én platform. Met Wave 3, Copilot Cowork en Agent 365 probeert Microsoft niet alleen productiviteit toe te voegen, maar ook governance en security mee te leveren op het moment dat agents in Word, Excel, PowerPoint, Outlook en Copilot Chat landen. Voor veel organisaties betekent dit dat Microsoft waarschijnlijk het eerste grote speelveld wordt waar AI-governance echt operationeel moet worden gemaakt, omdat de combinatie van user adoption, M365-context en agentische mogelijkheden daar het snelst bij elkaar komt.
Praktische tips en tricks voor organisaties die nu willen handelen
De fout die veel organisaties nu maken, is dat ze deze ontwikkelingen bekijken alsof het alleen productnieuws is. In werkelijkheid is dit ook architectuurnieuws en securitynieuws. Ons advies zou daarom zijn om de komende weken vijf dingen te doen.
- maak onderscheid tussen AI die alleen leest, AI die adviseert en AI die handelt. Die drie categorieën vragen om andere rechten, logging en approvals. De tools van vandaag lopen steeds vaker in elkaar over, dus je moet dat onderscheid zelf scherp aanbrengen.
- houd research-agents en action-agents gescheiden. Laat een Perplexity- of ChatGPT-achtige workflow niet zonder noodzaak in dezelfde context zitten als mailbox-, agenda- of schrijfrechten. Zodra een model ook mag schrijven of uitvoeren, verandert de impact van prompt injection en verkeerde interpretatie direct.
- behandel skills, plugins, connectors en add-ins als supply chain. Dat zien we bij OpenClaw heel expliciet terug, maar hetzelfde principe geldt ook voor Copilot-connectors, ChatGPT-apps en elk AI-ecosysteem dat extensies toelaat. Elke koppeling is potentieel een nieuwe route naar data of acties.
- zet AI-security niet alleen neer als beleid, maar ook als technische tussenlaag. Denk aan runtime controls, prompt-injectionbescherming, datalekpreventie, outputvalidatie en monitoring. Juist hier sluiten vendorontwikkelingen zoals FortiAIGate, TrendAI en Arctic Wolf goed aan op wat bedrijven praktisch nodig hebben.
- onderschat human risk niet. Naarmate AI meer taken uitvoert, worden medewerkers tegelijk productiever en kwetsbaarder. De combinatie van AI-gegenereerde phishing, deepfakes, agentische misleiding en prompt injection maakt awareness opnieuw strategisch belangrijk. KnowBe4’s recente AIDA-beweging is daarom niet zomaar marketing, maar een signaal dat human risk management ook mee moet moderniseren.
Conclusie
De afgelopen weken hebben duidelijk gemaakt waar de markt heen beweegt. Claude wordt sterker als werk- en securityassistent, Perplexity bouwt aan een research- en computerlaag, ChatGPT schuift dieper de professionele workflow in, Copilot wordt agentischer binnen de digitale werkplek, en OpenClaw laat zien hoe krachtig maar ook hoe onstuimig de open agentwereld momenteel is. Dat is niet alleen interessant voor innovatie, maar vooral voor governance, security en control.
Voor Flowerbed zit hier een duidelijke boodschap in. De komende fase van AI gaat niet gewonnen worden door organisaties met de meeste tools, maar door organisaties die AI veilig weten in te bedden in mensen, processen en systemen. Juist in de zakelijke markt en kritieke sectoren is dat het verschil tussen interessante pilots en echte operationele waarde. De slimme vraag is dus niet meer: “welke AI moeten we kiezen?”, maar: “hoe zorgen we dat AI binnen onze organisatie bruikbaar, beheersbaar en veilig uitvoerbaar wordt?”



