Så tar Försäkringskassan vab-fuskare med AI

Med hjälp av hemlig AI och riskpoäng jagar Försäkringskassan vab-fusk. En granskning som Svenska Dagbladet gjort visar att män fuskade oftare än kvinnor. Trots detta kontrollerades oskyldiga mammor mer än dubbel så ofta.

För många föräldrar som ansöker om ersättning för vård av barn, eller vab som det brukar kallas, är processen smidig. Majoriteten av ärendena hanteras helt automatiskt och många beviljas snabbt ersättning.

Men om ärendet fastnar i handläggning eller skickas vidare till kontrollutredning kan väntetiden bli lång. Enligt en granskning som Svenska dagbladet gjort så väljer det AI-system Försäkringskassan använder sig av oftare att kontrollera kvinnor än män.

Det hemliga AI-systemet ger samtliga som ansöker om ersättning en riskpoäng mellan 0 och 100. Poängen ska sedan svara på två frågor: om du kan ha gjort något fel i din ansökan och om du medvetet försökt fuska. En viss poäng betyder att du flaggas och att en handläggare tar vid. I förlängningen kan din arbetsgivare och barnens förskola kontaktas. För de som bedöms ha allra högsta riskpoängen så ökar sannolikheten för att skickas vidare till kontrollutredningen.

– Hela välfärdssystemet lider ju av det här. Att det är ganska mycket pengar som betalas ut felaktigt som skulle kunna användas till andra nyttiga saker i samhället, säger Anders Viseth, områdeschef för Försäkringskassan till tidningen.

Vad som ligger till grund för poängsättningen är enligt Försäkringskassan sekretessbelagt. Men enligt dokument som granskningen tittat på kan det handla om allt från ”inga personuppgifter” till närståendes “personliga eller ekonomiska förhållanden”. Även uppgifter som rör ”beteendemönster vid ansökan” och ”strafföverträdelser” nämns i dokumenten.

Anders Viseth säger att varje person får en rättssäker bedömning och att riskuträkningen finns till för att det ska bli rätt från början.

– Det spar ju också väldigt mycket handläggningskraft om vi innan utbetalning kan stoppa det så vi slipper ägna resurser på att kräva tillbaka det, säger han.

Men enligt granskningen så drabbades kvinnor i mycket större utsträckning än män. De fick mycket oftare den högsta risknivån, samtidigt som hälften av dem var helt oskyldiga.

Tidningen har tagit del av underlaget till den tillsynsrapport som gjordes av systemet 2018 och bygger på utfallet i 6000 granskade fall från 2017. Siffrorna visar att kvinnorna vabbade lite oftare med 55% av ansökningarna. När det kom till fel i kontrollerna var det däremot en liten övervikt bland männen, 30% mot 29%. Trots detta så pekade systemet ut oskyldiga kvinnor mer än dubbel så ofta som oskyldiga män.

Enligt David Nolan, senior algoritmgranskare på Amnesty, har “smarta modeller” lett till flera skandaler i andra länder. I Frankrike har staten stämts för att ha använt en modell som missgynnat bland annat kvinnor. I Nederländerna var det delvis ett AI-system som låg bakom att hela den nederländska regeringen avgick 2021. I den upptrappade kampen mot välfärdsbedrägerier hade en matematisk formel felaktigt pekat ut tusentals familjer som bedragare med rättegångar, utmätningar och skilsmässor som följd. 
LÄS MER: