Amsterdam,
25 maart 2026 - Driekwart (74%) van de Nederlandse IT-leiders en tweederde
(66%) van de zakelijke leiders in Nederland voelt zich onder druk gezet
om AI-initiatieven snel goed te keuren, ondanks veiligheidsbezwaren.
Ongeveer 18% bestempelt deze bezwaren als ‘extreem’. Deze bezwaren worden
echter vaak genegeerd om gelijke tred te houden met concurrenten en
interne eisen. Dit blijkt uit
nieuw onderzoek van TrendAI, leider in
AI-beveiliging. Het onderzoek is uitgevoerd onder 3.700 besluitvormers,
waaronder 100 uit Nederland.
Rachel
Jin, Chief Platform & Business Officer en Head of TrendAI:
“Organisaties zijn zich wel bewust van de risico’s, maar hebben niet de
frameworks om deze te beheersen. Wanneer de implementatie van AI wordt
gedreven door concurrentiedruk in plaats van volwassen governance,
ontstaat er een situatie waarin AI in kritieke systemen wordt
geïntegreerd zonder de benodigde controlemechanismen. Dit onderzoek
bevestigt onze focus om organisaties te helpen solide bedrijfsresultaten
te behalen en tegelijkertijd AI-risico’s te beheersen.”
Het
risico wordt nog eens versterkt door inconsistenties in governancekaders
en onduidelijkheid over wie verantwoordelijk is voor het beheersen van
AI-risico’s. Er wordt voornamelijk gewezen naar de CISO (43%) en de
legal/compliance-teams (28%) als eindverantwoordelijke voor het beheren
van AI-risico’s. Het bestuur wordt minder vaak genoemd (23%). Daarnaast
wordt het risico vergroot door beveiligingsteams die reactief reageren op
top-downbeslissingen over de invoering van AI. Dit leidt vaak tot
noodoplossingen en een toegenomen gebruik van niet-goedgekeurde of
‘schaduw-AI’-tools.
Het
belang van veilige implementatie van AI wordt nogmaals benadrukt door
bevindingen uit ander recent onderzoek van TrendAI naar het gebruik van
AI door cybercriminelen. Uit dit onderzoek kwam naar voren dat aanvallers
AI gebruiken om hun verkenningsactiviteiten te automatiseren,
phishingcampagnes te versnellen en de algehele drempel voor
cybercriminaliteit te verlagen. Hierdoor neemt zowel de snelheid als de
schaal van aanvallen toe.
De
adoptie van AI gaat sneller dan de controle
Organisaties
implementeren AI sneller dan dat ze de bijbehorende risico’s kunnen
beheersen. Hierdoor wordt de kloof tussen ambitie en toezicht alleen maar
groter. Een van de redenen kan zijn dat AI zich sneller ontwikkelt dan
dat organisaties het kunnen beveiligen. 47% van de Nederlandse
organisaties geeft aan het hiermee eens te zijn. Tegelijkertijd zegt iets
meer dan een kwart van de respondenten in ons land dat ze vertrouwen
hebben in hun eigen kennis over en begrip van de wettelijke kaders die AI
reguleren. Hier is een groot verschil te zien tussen IT-leiders (52%) en
zakelijke leiders (20%).
Bovendien
blijkt governance-volwassenheid laag. Ongeveer een kwart (24%) van de
Nederlandse organisaties heeft een officieel AI-beleid. Daar tegenover
staat dat 28% onduidelijke regelgeving of compliance-vormen als een
belemmering noemt voor het opstellen van AI-beleid en governancekaders.
Ook een gebrek aan intern beleid (38%) en onduidelijkheid over
verantwoordelijkheden (37%) worden genoemd als barrières voor het
opstellen van AI-beleid. Dit leidt ertoe dat organisaties AI-technologie
in de praktijk vaak in gebruik nemen voordat de regels voor het gebruik
ervan volledig zijn vastgesteld.
Vertrouwen
in autonome AI blijft onzeker
Uit
het onderzoek blijkt dat het vertrouwen in geavanceerde, autonome
systemen zich nog in de beginfase bevindt. Slechts 35% van de Nederlandse
organisaties gelooft dat agentic AI cyberbeveiliging op korte termijn
significant zal verbeteren. De grootste zorgen van respondenten zijn het
groeiende aanvalsoppervlak (40%), (onbedoelde) blootstelling van
gevoelige gegevens (35%) en misbruik van de vertrouwde status van AI
(32%).
Meer dan
een derde (38%) van de Nederlandse organisaties geeft toe dat ze geen
inzicht in of volledige controle hebben over AI-systemen. Dit roept
serieuze vragen op over of, en hoe organisaties kunnen ingrijpen zodra
hun agents niet naar behoren werken.
Om deze
kloof te overbruggen steunt een kwart (25%) van de Nederlandse
organisaties de introductie van AI ‘kill-switch’-mechanismen. Dergelijke
noodmechanismen schakelen systemen uit in geval van een storing of bij
misbruik. Iets meer dan de helft van de Nederlandse respondenten (55%)
geeft aan niet te weten of noodmechanismen nuttig zijn. Dit gebrek aan
consensus wijst op een dieperliggend probleem: organisaties stappen over
op autonome AI, maar zijn het niet eens over hoe ze de controle hierover
kunnen behouden wanneer dat het meest nodig is.
“Agentic
AI zorgt voor geheel nieuwe risico’s”, aldus Rachel Jin. “Uit ons
onderzoek blijkt dat de zorgen al duidelijk zijn, van het blootstellen
van gevoelige gegevens tot het verlies van toezicht. Zonder inzicht en
controle implementeren organisaties echter systemen die ze niet volledig
begrijpen of beheersen, en dat risico zal alleen maar toenemen tenzij er
maatregelen worden genomen.”
Download hier het volledige onderzoek.
Over TrendAI
TrendAI™,
een businessunit van Trend Micro™ en een wereldwijde leider op het gebied
van AI-beveiliging, maakt de wereld veiliger voor de digitale
uitwisseling van informatie tussen bedrijven, overheden en organisaties.
TrendAI™ wordt gedreven door security-expertise en innovatie en
gebruikt kunstmatige intelligentie om meer dan 500.000 bedrijven en
miljoenen individuen te beschermen op het gebied van AI, cloud,
netwerken, endpoints en apparaten. AI Fearlessly.
TrendMicro.com
Voor meer informatie
TrendAI
Ilona van Ginkel
E-mail:
ilona_van_ginkel@trendmicro.com
Whizpr
Paul Maris / Martine Korthals
E-mail:
trendai@whizpr.nl