»Kan i vissa fall vara till skada för personer med psykos«
Viktor Fabri tror på en öppen dialog med patienter som berättar att de rådfrågat Chat GPT. Han är specialist i psykiatri i Malmö och jobbar på en slutenvårdsavdelning för psykospatienter.
Bilden är skapad med Chat GPT och Microsoft Copilot.
Hur ofta träffar du patienter som har konsulterat Chat GPT?
– Jag har stött på ett antal patienter som har berättat för mig att de har rådfrågat Chat GPT. Sedan är det nog en del som använder Chat GPT men väljer att inte berätta det för mig.
Frågar du?
– Nej, inte regelmässigt. I de fall jag vet om det har de nog nämnt det själva, och då har det oftast handlat om mer praktiska saker, som indikationer för läkemedel eller saker som rör hur vården fungerar.
Men det har också hänt att patienter rådfrågat Chat GPT som ett verktyg för att förstå sig själva och sin omgivning. Det har både Viktor Fabri och hans kollegor på mottagningen erfarenheter av. I vissa fall kan användningen bli problematisk, enligt deras upplevelser – åtminstone när det gäller personer med psykos.
– Det är möjligt att AI-bottar som Chat GPT i vissa fall kan vara till skada för personer med psykos. Jag uppfattar att Chat GPT kan vara inställsam, och i värsta fall kan det leda till att den bekräftar användarens upplevelser, även när dessa är uppenbart avvikande från det normala eller till och med sjuka. Den senaste tiden har det också kommit en del rapporter om att Chat GPT kan vidmakthålla eller driva på psykotiska symtom.
Viktor Fabri, specialist i psykiatri.
Detta är ett problem som Open AI, företaget bakom Chat GPT, ska ha arbetat med och gjort förbättringar, enligt ett pressmeddelande från företaget i oktober.
Oavsett förbättringar är Viktor Fabri rädd att personer med psykos väntar för länge med att söka vård fastän det skulle behövas. Vissa kan i stället vända sig till Chat GPT i situationer där de tidigare hade pratat med en anhörig, en granne eller vården, till exempel för att få ett bollplank kring sina upplevelser och tankar.
– I värsta fall ger chattbotten råd som de flesta människor med sunt förnuft aldrig skulle ge. Detta kan leda till fördröjd vård eller farliga situationer. Samtidigt kan så klart även nära anhöriga ge dåliga råd, bagatellisera problem eller förstora dem.
Viktor Fabri tycker att det är svårt att säga om Chat GPT underlättar eller försvårar hans eget arbete – men han minns en gång då den hjälpte honom på traven.
– Då hade chattbotten sagt åt patienten att lyssna på läkaren. Det gjorde ju mitt jobb lättare.
I det fallet var det också tydligt att patienten lyssnade på Chat GPT, vilket är en verklighet som han tror att läkare behöver vänja sig vid generellt.
Hur ska läkare hantera den här utvecklingen?
– Jag tror att det är bra att ha en öppen inställning till att patienter använder Chat GPT. Jag tror också att det är viktigt att förmedla till patienterna att man förstår att de vänder sig dit och visa att man har förståelse och acceptans för det. Om man sedan behöver leda patienten i en annan riktning för att man har en annan slutsats än chattbotten, kan man nog lättare göra det om man börjar på samma planhalva. Att patienten över huvud taget sökt sig till vården tyder ju oftast på att personen också vill ha en läkares utlåtande. Om man är trygg i läkarrollen behöver man inte känna sig hotad av chattbottar, tycker jag.
Viktor Fabri är inte helt främmande för att utveckla någon form av stödmaterial till läkare som behöver hjälp med att bemöta sådana här problem i framtiden.
– Jag och mina kollegor har pratat om att det kanske skulle behövas.