I en traditionell applikation vet vi hur logiken ser ut. Vi kan följa den, testa den och förstå varje steg. Men med AI-applikationer tränar vi en modell som själv producerar resultat. Vi går från kontroll till tillit, från deterministiskt till icke-deterministiskt. Det öppnar nya möjligheter, men också helt nya sårbarheter.
De flesta som arbetar med AI i dag använder någon form av RAG – Retrieval Augmented Generation – där egna dokument kombineras med publik data för att generera svar. Men när vi tar steget mot mer avancerade lösningar, till exempel agentisk AI som själv interagerar med system, API:er och verksamhetens infrastruktur, ställs helt nya krav på säkerhet.
Här dyker nya hot upp: prompt injection, dataläckage, poisoned models, överdriven autonomi. Risker vi inte mött tidigare, och som vi inte alltid kan förstå fullt ut. Vi vet inte hur modellen tänker – bara att den gör det.
Ny teknik kräver ny säkerhet
Så hur bygger vi skydd? Vi börjar som alltid med visibilitet: att förstå vad som används, hur och av vem. Vi behöver nya kontroller anpassade för AI, och en arkitektur som är flexibel, skalbar och säker. Plattformar, inte burkar.
Thomas berättar att många av de företag han möter tror att de har ett tjugotal AI-verktyg i drift. I själva verket är det ofta hundratals. Shadow AI, där medarbetare använder AI-tjänster utan att IT vet om det, är en växande risk. Samtidigt kan vi inte bromsa utvecklingen. Sverige vill ligga i framkant, men halkar efter. Finland är redan förbi.
Nästa steg? Att göra våra datacenter och säkerhetsmodeller AI-ready. Att stödja team som vill arbeta med AI, men inte vet var de ska börja. Och att våga prata om risk – inte för att stoppa utveckling, utan för att möjliggöra den.
”När modeller går sönder, händer dåliga saker,” konstaterade Thomas.
AI är här för att stanna. Nu är det upp till oss att bygga det rätt från början.