Fra sikker kode til å sikre atferd

Med AI-agenter beveger vi oss nå raskt fra pilotprosjekter til produksjon, på tvers av bransjer og samfunnssektorer. Men i motsetning til oppgavespesifikk automatisering planlegger, beslutter og handler AI-agenter i flere steg og systemer – på vegne av brukere og team. Dette er ikke bare en teknisk oppgradering. Det er et nytt sikkerhetsparadigme: Vi sikrer ikke lenger bare kode – vi må sikre atferd.

March 19, 2026

Når stadig flere organisasjoner tar i bruk AI-first-strategier uten samtidig å tenke gjennom hvordan sikkerheten skal styrkes, skapes cybersikkerhetsrisiko i to parallelle dimensjoner: økt sårbarhet og langsommere gjenoppretting.

Noe som i praksis er det motsatte av intensjonene i NIS2-direktivet, som mange organisasjoner rundt om i Europa nå strever med å implementere…

En nylig gjennomført studie av Sapio Research, på oppdrag fra teknologiselskapet Fastly, viser at AI-first-organisasjoner (ikke overraskende) har betydelig høyere sårbarhet – men også i gjennomsnitt 80 dager lengre gjenopprettingstid etter datainnbrudd. Dette gjenopprettingsgapet fører direkte til tapte inntekter, lengre nedetid og svekket tillit til virksomheten, noe som gir anslagsvis 135 % høyere hendelseskostnader sammenlignet med mer tradisjonelle organisasjoner.

Hovedårsaken til de økte kostnadene er at ingen egentlig vet hvem som har ansvaret når noe går galt. Tradisjonell ansvarliggjøring svekkes raskt når utviklingsteam i dag består av både mennesker og selvtenkende, selvlærende og selvhandlende AI-agenter.

Det pågår helt legitime diskusjoner om sikkerhetsrisikoene knyttet til såkalt shadow AI – når ansatte begynner å bruke AI-verktøy uten at det finnes gjeldende retningslinjer eller policyer. Men også godkjente AI-verktøy kan bli en sikkerhetsrisiko når de får omfattende automatiserte tilganger. Når AI blir en privilegert del av organisasjonens infrastruktur, oppstår både nye og økte risikoer. Risikoer som i mange tilfeller allerede kan ha ligget under overflaten, etter hvert som ansatte på eget initiativ har begynt å bruke AI i sitt daglige arbeid.

Veien videre: Security by design

AI er ikke her for å bli. Den er her for å akselerere. Og med tanke på potensialet for innovasjon og økt produktivitet finnes det ingen vei tilbake. Både organisasjoner, og ikke minst ansatte, har allerede vent seg til effektivitetsgevinstene AI gir. Derfor må vi fokusere på en tryggere vei videre.

Når vi går inn i den agentbaserte AI-æraen, har security by design gått fra å være en ambisjon til å bli en forutsetning for å lykkes. I det nye OWASP Top 10-rammeverket for agentbaserte applikasjoner – som i den raske AI-utviklingen fungerer mer som et kompass enn et statisk rammeverk – finnes det to viktige råd å ta med seg:

  • Unngå unødvendig autonomi – å innføre agentatferd der det ikke trengs, øker angrepsflaten uten å tilføre verdi.
  • Sterk observerbarhet er avgjørende – uten tydelig innsikt i hva agenter gjør, hvorfor de gjør det og hvilke verktøy de bruker, kan unødvendig autonomi i det stille øke angrepsflaten og gjøre små problemer til systemomfattende feil.

Fra små problemer til systemomfattende havarier. La det synke inn et øyeblikk…

Ledere i alle organisasjoner må forstå at agentbasert AI forsterker eksisterende sårbarheter og introduserer helt nye. Beslutninger blir dynamiske, og eksekveringsstier blir uforutsigbare.

En mer AI-sikker fremtid forutsetter at organisasjoner integrerer security by design-tenkning i sin AI-implementering. Og det holder ikke å bare sikre kode. Vi må sikre atferd – i hele organisasjonen.

Trenger dere å øke AI-sikkerheten deres? Fyll ut skjemaet, så kontakter vi dere om kurset vårt i Security by Design.