Gå till innehållet
Gå till startsidan

Denna webbplats vänder sig till läkare

Sök

Läkarförbundets digitaliseringsråd: Behöver förhålla oss till chattbottar

Hur läkare ska bemöta patienter som konsulterar Chat GPT är inget som Läkarförbundets digitaliseringsråd diskuterar i dagsläget. Däremot anser ordförande Julia Borg att det finns risk för både över- och undertriagering i vården när patienter får olika råd från chattbotten.

– Vi har inte pratat så mycket i rådet ännu om hur vi ska hantera detta, men vi behöver förhålla oss till att patienter söker information på det här sättet, säger Julia Borg.

Samtidigt tror hon inte att läkare i regel märker om patienten googlat eller konsulterat Chat GPT, om inte patienten är öppen med det.

– I mitt jobb som psykiater upplever jag heller inte att man berättar om man använt Chat GPT, men det är säkert vanligt förekommande. Kanske är det mer vanligt att man tar upp att man frågat Chat GPT inom andra läkarprofessioner.

Vad tänker du om att patienter gör det?

– Det behöver inte nödvändigtvis vara dåligt, och det är ju kraftfullt i och med att man kan få en bra sammanfattning om ett ämne som man inte kan så mycket om. Men man kan inte ta chattbottens svar för sanning. Chat GPT är inte alltid transparent med vad den inte vet; den hittar på och fyller ut när information saknas – hallucinerar. Dessutom är det inte säkert att den alltid kan skilja på stora etablerade studier jämfört med små studier med liten »impact« när den gör sina sammanställningar, säger Julia Borg.

Julia Borg, ordförande för Läkarförbundets digitaliseringsråd.

Ett påtagligt problem är när människors diskussioner med Chat GPT ligger till grund för personens beslut om att söka vård eller inte.

– Chattbottar har en tendens att vara bekräftande och förstärka oro man redan är inne på. Det kan leda till att vården riskerar att göra utredningar där det finns väldigt låg risk för sjukdom, vilket skapar undanträngningseffekter.

På samma sätt kan det bli förödande om chattbotten inte rekommenderar vård, trots att det kan handla om något allvarligt.

– Det finns ju risk att det blir fel, att man råds att inte söka hjälp när man faktiskt borde det.

Förutom att chattbotten ger råd skiljer sig Chat GPT från Google (om man bortser från AI-läget) i ytterligare ett avseende. Att googla på det gamla vanliga, hederliga sättet innebär att man besöker flera källor, medan en chattbott direkt ger en sammanfattning, även om länkar ofta presenteras.

– Genom Google är det i alla fall tydligt vilka källor man kommer till, och man kan ju då få en mer varierad bild av vad som kan vara friskt eller sjukt. Allt det här handlar trots allt mycket om källkritik.

Tror du att patientens konsultation av en chattbot kan påverka vården som ges?

– Jag tror att oavsett hur en patient informerat sig kan det vara svårt för läkaren att förmedla en annan inriktning, om patienten är väldigt låst i sin föreställning om vad som ska göras. Kan man däremot använda det som ett underlag för diskussion mellan patient och läkare tror jag inte det behöver vara något negativt.

I USA däremot, och i vissa andra länder, kan användningen av Chat GPT inom vården få större betydelse genom tjänsten Chat GPT Health, som lanserades av Open AI i början av januari. Tjänsten gör det möjligt för privatpersoner att dela journaler och andra hälsodata för mer inriktade och personaliserade medicinska svar.

Chat GPT Health har också nyligen förekommit i en studie i Nature Medicine som fått experter att betrakta den som »otroligt farlig«, enligt en artikel i The Guardian. Enligt studien struntade tjänsten i att rekommendera människor att söka sig till vården, trots att det var medicinskt nödvändigt i mer än hälften av fallen.

– I dagsläget vänder sig inte tjänsten till den europeiska marknaden. Jag tror inte att Chat GPT Health kommer till Sverige i första taget. Europa har mycket skarpare lagstiftningar för personuppgifter. Som patient tycker jag att man ska fundera både en och två gånger innan man delar hälsodata från appar eller journaler till chattbottar. Även om företagen i dag lovar att behandla användarnas data väl kan användarvillkoren ändras, och vet vi inte vad som händer om ett företag går i konkurs.

Oavsett hur patienter använder Chat GPT är det viktiga i sammanhanget att läkaren gör medicinska bedömningar som vanligt, tycker Julia Borg. Men i takt med att allt fler andra typer av AI-verktyg används i vården behövs också ett förhållningssätt till det, något för läkare att luta sig mot. Detta har varit på tapeten tidigare och är under lupp nu.

– Vi håller på att titta på en generell AI-policy. Vi är väldigt måna om läkarnas intressen tas till vara. Digitaliseringen måste utgå från läkarnas behov. Systemen vi får tillgång till ska stödja läkarna, snarare än att läkarna måste stödja systemet. Nya verktyg behöver först testas och utvärderas i liten skala innan de breddinförs. Om vi läkare ska använda AI-verktyg som beslutsstöd i framtiden måste ansvarsfrågan vara utredd. Är det läkaren, kliniken eller företaget bakom algoritmen som är ansvarig om en patient felbehandlas?

Mer att läsa

Mer att läsa