I en värld där AI-utvecklingen rusar fram står europeiska företag inför ett avgörande vägval. Ska vi bygga snabbt men riskera att behöva riva och börja om? Eller bygga långsamt och hållbart från grunden?
På Berghs Unconference:AI höll jag föreläsningen ”The AI Act: Modern Time Equivalent to Red Traffic Law?”, där vi diskuterade vad AI-förordningen innebär i praktiken. I ett samtal efteråt, ute i fikarummet, refererade jag till fablen om de tre små grisarna: Vi bygger kanske inte lika snabbt som andra, men vårt hus kommer stå kvar när deras rasar. En deltagare stannade upp, log och sa att det där skulle hon verkligen bära med sig, som en påminnelse om värdet i att bygga något som håller över tid.
Det slog mig då hur kraftfulla vissa berättelser kan vara. Fabler som denna användes förr just för att lära oss något om livet, ofta med en tydlig sensmoral. Idag märker jag att många yngre kollegor associerar storytelling mest med att ”berätta något”, utan att alltid fundera över varför vi berättar. Vad vill vi att berättelsen ska leda till? Den diskussionen sparar jag till ett annat blogginlägg, för det finns mycket att säga.
Vad innebär AI-förordningen i praktiken?
AI-förordningen har som mål att reglera utveckling och användning av AI inom EU, med särskilt fokus på säkerhet, transparens och mänskliga rättigheter. Den klassificerar AI-system i olika risknivåer från oreglerad till förbjuden, där de flesta system som företag använder och utvecklar sannolikt kommer att hamna i kategorin hög risk eller begränsad risk.
Det är lätt att tolka AI-förordningen som ett hinder för innovation, men jag vill påstå att det är tvärtom. Den erbjuder en ram för att bygga tillförlitliga system och att bygga rätt från början är inte bara en juridisk skyldighet, det är en strategisk konkurrensfördel.
Vad händer om vi inte bygger rätt från början?
AI-system som utvecklas utan rätt struktur för datakvalitet, spårbarhet eller översyn riskerar att kollapsa. Ett känt exempel är Amazons rekryteringsverktyg som Reuters rapporterade om 2018. Systemet tränades på tidigare ansökningar inom tech, en mansdominerad bransch. Det började snabbt diskriminera mot kvinnor. Trots försök att neutralisera könsindikatorer kvarstod problemet. Till slut skrotade Amazon hela verktyget.
Varför misslyckades försöken att rätta till systemet? Forskning visar att fel som bias och hallucinationer ofta byggs in i ett tidigt skede och kan vara svåra att åtgärda i efterhand:
- Data Ghosts: Historisk diskriminering ”kodas in” i träningsdatan och reproduceras genom dolda mönster, till exempel att “ledarskap” kopplas till manliga kandidater.
- Proxyvariabler: Data som används för att avgöra hur väl någon ”passar in i kulturen” kan gynna kandidater som liknar rekryterarnas bakgrund, vilket riskerar att förstärka existerande obalanser mellan olika grupper.
- Explainability Gap: Många AI-system fungerar som svarta lådor. Det blir svårt att förstå varför ett beslut fattades och att isolera orsaken till ett fel.
Sådana brister kan kosta både tid och förtroende, men ännu viktigare: de kan göra att AI-lösningar inte går att använda i skarpt läge.
Från regelverk till konkurrensfördel
Organisationer som väljer att investera i AI Governance från början med tydliga roller, robust datastyrning och strukturer för uppföljning kommer inte bara att uppfylla kraven i AI-förordningen. De kommer också att ligga före sina konkurrenter.
Att bygga Trustworthy AI kräver mer än bara regelefterlevnad. Det kräver en tydlig ambition om att bygga system som håller över tid, såväl tekniskt som etiskt och affärsmässigt.Jag tror att just detta kommer att locka talanger som vill bidra till långsiktig och ansvarsfull AI-utveckling. Sverige har en möjlighet att bli ett nav för framtidssäkra AI-lösningar, om vi skapar rätt förutsättningar.
Tre konkreta råd till företag som utvecklar eller bygger vidare på AI
1. Identifiera vilka system som omfattas, även AI-agenter räknas
Många företag bygger idag AI-agenter, copilots och interna appar ovanpå kommersiella modeller som ChatGPT, Claude eller Mistral. Enligt AI-förordningen kan dessa omfattas av samma krav som egenutvecklade system, särskilt om ni gör väsentliga ändringar, tillägg eller tränar om modellen. Kartlägg därför alla AI-initiativ. Det gäller inte bara modeller, utan också integrationer och användningsområden. Bedöm deras risknivå enligt lagens klassificering.
2. Bygg AI Governance parallellt med utvecklingen, inte efteråt
Ett vanligt misstag är att vänta med ansvarsfördelning, dokumentation och riskbedömningar tills systemet är färdigt. Då blir det ofta både svårare och dyrare att korrigera i efterhand. Inför därför roller, ansvar och strukturer för datakvalitet, transparens och spårbarhet tidigt i utvecklingsprocessen. Det gör det också enklare att visa att ni arbetar med ”trustworthy AI” om ni behöver visa det för kunder eller tillsynsmyndigheter.
3. Gör AI-förordningen till en strategisk fråga
AI-förordningen påverkar inte bara tekniken. Den berör affärsmodeller, ansvarsfördelning och konkurrenskraft. Se därför till att ledningsgruppen, produktägare och affärsutvecklare förstår grunderna i lagen och hur den påverkar era AI-initiativ. Rätt tolkad blir AI Governance inte ett hinder, utan en strategisk tillgång som öppnar för internationella samarbeten och stärker varumärket.
Vill du reflektera vidare? Diskutera det här blogginlägget med din ledningsgrupp, eller börja skissa på vilka steg ni behöver ta för att bygga framtidens hållbara AI.