Går det verkligen att lita på hälsoråd från AI?

Att få tag på en vårdtid kan kännas svårt, och i fickan finns en artificiell intelligens som alltid svarar direkt. Men en ny granskning varnar för att hälsoråden från AI kan bli en farlig genväg som spelar rysk roulette med din hälsa.

Allt fler vänder sig till AI-chatbotar för att tolka symtom. För personer med hälsoångest kan AI upplevas som tryggare än en vanlig Google-sökning, eftersom den ofta ger mer balanserade svar istället för att genast peka på värsta tänkbara scenario. Men den brittiska medicinalrådet, professor Sir Chris Whitty, varnar nu för att vi befinner oss i en ”farlig brytpunkt”. Han menar att AI-svaren ofta är ”både självsäkra och felaktiga”.

Från urinvägsinfektion till falskt larm om organsvikt
BBC Radio har följt ”Abi”, en kvinna som regelbundet använder ChatGPT som hälsostöd. Vid ett tillfälle fick hon rätt hjälp vid en urinvägsinfektion. Men när hon senare föll under en vandring och slog i ryggen, blev rådet från AI:n dramatiskt: ”Du har punkterat ett inre organ, sök akutvård omedelbart”.

Efter tre timmar på akuten insåg Abi att smärtan klingade av och att hon inte alls var kritiskt sjuk. AI:n hade gissat vilt baserat på hennes beskrivning av smärtan. Forskare vid University of Oxford har undersökt fenomenet genom att låta läkare skapa realistiska sjukdomsscenarier. Resultaten är slående:

  • När AI:n fick en komplett bild av alla symtom var den pricksäker till 95 procent.
  • När vanliga människor fick chatta med boten om samma symtom föll träffsäkerheten till 35 procent.

Problemet ligger i interaktionen. Människor berättar sällan allt på en gång, vi utelämnar detaljer, blir distraherade eller använder diffusa ord. En AI tolkar informationen bokstavligt, vilket kan leda till att den missar livshotande tillstånd – eller skapar onödig panik.

I ett av Oxfords scenarier beskrevs symtom på en stroke (subaraknoidalblödning), ett tillstånd som kräver omedelbar sjukhusvård. Beroende på exakt vilka ord testpersonerna använde för att beskriva sin huvudvärk, gav ChatGPT helt olika råd. I vissa fall förstod boten allvaret, i andra föreslog den vila och receptfria värktabletter.

AI kan vara ett kraftfullt verktyg för läkare, men som ersättare för mänsklig bedömning är den ännu inte helt mogen. Att lita blint på en chatbot när det gäller liv och hälsa är rysk roulette med algoritmer.

Tre råd innan du frågar AI om hälsan:

  1. AI saknar kontext: Den vet inte din sjukdomshistoria eller vilka mediciner du tar om du inte matar in allt – och även då kan den feltolka kopplingar.
  2. Självsäkerhet är inte sanning: En chatbot är programmerad att låta auktoritär, även när den ”hallucinerar” fram felaktiga medicinska fakta.
  3. Använd 1177 istället: Vid osäkerhet är professionell medicinsk rådgivning via etablerade kanaler det enda säkra sättet att få rätt vårdprioritering.

Senaste nytt