Van veilige code naar veilig gedrag
Met AI-agents gaan we nu razendsnel van pilots naar productie in allerlei bedrijven en sectoren. En anders dan bij taakgerichte automatisering plannen, beslissen en handelen AI-agents over meerdere stappen en systemen namens gebruikers en teams. Dit is niet zomaar een technische upgrade. Het is een geheel nieuw paradigma op het gebied van security: we beveiligen niet langer alleen code, we moeten ook gedrag beveiligen.
Steeds meer organisaties stappen over op een AI-first strategie zonder goed na te denken over hoe ze hun beveiliging versterken. Daardoor creëren ze tegelijkertijd cybersecurityrisico’s in twee richtingen: meer kwetsbaarheid en langzamer herstel.
Eigenlijk precies het tegenovergestelde van wat de NIS2-richtlijn beoogt, en waar nu veel organisaties in Europa mee worstelen om die goed te implementeren…
Uit een recente studie van Sapio Research, uitgevoerd in opdracht van techbedrijf Fastly, blijkt dat AI-first organisaties (logisch genoeg) een veel hogere kwetsbaarheid hebben, maar ook gemiddeld 80 dagen langer nodig hebben om te herstellen na datalekken. Dat verschil in hersteltijd vertaalt zich direct naar omzetverlies, langere downtime en blijvende schade aan vertrouwen. De kosten per incident liggen naar schatting zelfs 135% hoger dan bij meer traditionele organisaties.
De belangrijkste reden voor die hogere kosten? Niemand weet wie verantwoordelijk is als het misgaat. Traditionele verantwoordelijkheid brokkelt snel af, omdat developer teams nu bestaan uit zowel mensen als zelfdenkende, zelflerende en zelfhandelende AI-agents.
Er wordt veel gesproken over de beveiligingsrisico’s van zogenaamde shadow AI, waarbij medewerkers AI-tools gebruiken zonder dat er beleid of richtlijnen zijn. Maar zelfs goedgekeurde AI-tools kunnen een risico worden als ze uitgebreide geautomatiseerde rechten krijgen. Zodra AI-tools een grote rol krijgen binnen de infrastructuur van een organisatie, ontstaan er nieuwe en grotere risico’s – soms risico’s die al onder de oppervlakte aanwezig waren doordat medewerkers zelf AI zijn gaan gebruiken voor hun werk.
De weg vooruit: Security by design
AI is er niet om te stoppen. Het is er om dingen sneller te laten gaan. En gezien het potentieel van AI voor innovatie en productiviteit is er geen weg terug. Organisaties, en vooral medewerkers, zijn inmiddels gewend geraakt aan de efficiëntie die AI oplevert. Daarom moeten we kijken naar een veiligere manier vooruit.
In het tijdperk van agentic AI is security by design geen ambitie meer, maar een vereiste om te overleven. In het nieuwe OWASP Top 10-framework voor agentic applicaties – dat door de snelle ontwikkelingen in AI meer een kompas is dan een statisch model – worden twee belangrijke adviezen gegeven:
- Vermijd onnodige autonomie – agents inzetten waar het niet nodig is vergroot alleen maar het aanvalsoppervlak zonder echte waarde toe te voegen.
- Sterke observability is niet onderhandelbaar – zonder goed zicht op wat agents doen, waarom ze dat doen en welke tools ze gebruiken, kan onnodige autonomie ongemerkt het aanvalsoppervlak vergroten en kleine problemen laten uitgroeien tot systeemfouten.
Van kleine problemen naar systeemstoringen. Laat dat even bezinken…
Leidinggevenden in organisaties moeten begrijpen dat agentic AI bestaande kwetsbaarheden versterkt én nieuwe introduceert, omdat beslissingen in deze systemen dynamisch zijn en uitvoeringspaden onvoorspelbaar.
Of we een veiligere toekomst met AI tegemoet gaan hangt af van de vraag of organisaties security by design centraal stellen bij de implementatie van AI. En niet alleen door code te beveiligen. We moeten gedrag beveiligen – binnen de hele organisatie.
Klaar om jullie AI-veiligheid te verbeteren? Vul het formulier in, dan nemen we contact met jullie op over onze cursus Security by Design.







