Låt AI-utveckling och säkerhet gå hand i hand
Potentialen i att utveckla verksamheter och innovativa tjänster och produkter med hjälp av AI är nästan oändlig. Men som sanna AI-entusiaster vill vi höja ett varningens finger: Kombinationen av ostrukturerad shadow AI, obefintlig utbildning och vibe-kodning i händerna på medarbetare kan stå oss dyrt. Men det finns lösningar på det här problemet skriver William Friman COO på Walma AI, tillsammans med Niklas Rosén, Director of Content på Junglemap.

Mycket pekar på att AI i svenska verksamheter drivs och används mest av medarbetare, snarare än dess ledningar. Den snabba teknikutvecklingen och tillgången till nya AI-verktyg har sprungit ifrån organisationernas förmåga att ta fram fungerande policies och riktlinjer. Nu senast i en undersökning från fackförbundet Akavia som visar att bara var fjärde kommun har en AI-strategi på plats, trots att tekniken används brett i verksamheten.
Undersökningen, som visserligen genomfördes i maj 2025, visar också att bara 7 procent (!) har erbjudit AI-utbildning till alla sina medarbetare. I stället riktar sig de flesta utbildningsinsatser bara till chefer och specialister.
Det här är inte bara ett stort misstag när det gäller framtidssäkrad kompetensutveckling. Det är dessutom ett brott mot kraven i EU:s AI-förordning. Begreppet ”AI-kunnighet” definieras i artikel 3.56 i AI-förordningen och där står det tydligt att alla som använder och utvecklar AI-system i tjänsten måste ha en förståelse för hur AI fungerar, vilka risker tekniken medför och hur den kan påverka människor.
Vi vet att det är en utmaning för landets kommunledningar att hinna med när medarbetarna springer fort och åt olika håll. Men det gäller att ta första steget.
För att möta organisationers behov, tog vi 2025 gemensamt fram en introduktionskurs i säker generativ AI. Idag har över 70 organisationer genomfört kursen, vilket vi såklart är glada för, men Akavias undersökning visar ju att behovet är betydligt större än så och vi välkomnar alla initiativ till att skapa en säker användning av AI.
Vibe-kodning nytt problem
Dessutom tillkommer ständigt nya utmaningar. Nästan dagligen möts vi av exempel på hur så kallad Vibe-kodning där vem helst, även utan några förkunskaper inom programmering och utveckling, med hjälp av AI-verktyg kan skapa kod för nya smarta lösningar.
Det här är en enorm utvecklingspotential och i någon mening en slags AI-driven demokratisering inom programmering. Men samtidigt innebär det en stor risk. En genomgång av cybersäkerhetsföretaget Unit 42 pekar tydligt ut några av riskerna och de bakomliggande orsakerna: Funktionalitet prioriteras (såklart) framför säkerhet!
Trenden med citizen developers, där gemene man, helt utan förkunskaper kan bygga sina egna appar, förstärker den här säkerhetsmässiga utmaningen. Många utbildade utvecklare vittnar också om att det är svårare att granska kod framtagen av AI-verktyg, än kod skapad av människor.
Om inte utvecklare kan granska koden, hur ska då vi kunna begära att entusiastiska vibe-kodare skall kunna göra det?
Vi från Junglemap har sedan länge en säkerhetsutbildning baserad på den etablerade OWASP Top 10 standarden som går igenom de mest kritiska säkerhetsriskerna för webbapplikationer. Den riktar sig specifikt till utvecklingsteam, men bygger i grunden på en princip som vi menar borde gälla oss alla: shift left.
Shift left är ett begrepp från programmerings- och utvecklingsvärlden som innebär att man ska tänka på säkerheten först. Och egentligen behöver det inte vara svårare än så.
Vi är helt övertygade om att vi i Sverige kan fortsätta öka takten i vår AI-utveckling och samtidigt göra det på ett ansvarsfullt och säkert sätt.
Men det ställer krav på att landets kommun- och företagsledningar börjar röra på sig. Tar första stegen och ger sina medarbetare tydligare riktlinjer för hur AI ska användas inom organisationen. Det är så vi tar vara på AI-potentialen utan att tumma på säkerheten.





