»Nu tror jag att vi är på peaken av uppblåsta förväntningar« säger Li Felländer-Tsai, professor och föreståndare för Centrum för avancerad medicinsk simulering och träning på Karolinska universitetssjukhuset. Foto: Privat

Li Felländer-Tsai tror att vi just nu befinner oss i en fas av extremt uppblåsta förväntningar på Chat GPT. Hon gör en referens till Gartners hajpkurva, som illustrerar de olika faserna efter att en ny innovation gjort entré. 

– Efter en teknologisk »trigger« får man en »peak« av uppblåsta förväntningar – då går kurvan tvärt upp. Därefter kommer en fas av desillusion, då går den ned rejält, för att sedan gå upp igen och lägga sig på en mer balanserad nivå. Nu tror jag att vi är på »peaken« av uppblåsta förväntningar. 

 Li Felländer-Tsai, som är överläkare på Karolinska universitetssjukhuset och professor i ortopedi vid Karolinska institutet, har länge varit engagerad i de etiska frågorna kring olika AI-lösningar. I en rapport från Studieförbundet Näringsliv och samhälle (SNS) som publicerades för några år sedan pekade hon bland annat på att riskerna i vården ökar när AI införs. 

Hon tycker att det är för tidigt att säga exakt vad Chat GPT och liknande AI-varianter kommer att betyda för den medicinska forskningen, men att det är uppenbart att det är en omvälvande teknologi. 

– Jag tror att det kommer att finnas enorma möjligheter – men det kommer också att finnas baksidor. Den största risken är att man är naiv och bara hoppar på tekno-login. 

Hon varnar forskare för att dras med i hajpen innan det finns tydliga riktlinjer för användning av Chat GPT och liknande verktyg. 

– Det kanske visar sig att det inte är okej att använda de här AI-modellerna utifrån de regelverk och den värdegrund som forskningen står på i dag. Det viktiga är att hålla diskussionen levande. 

Det finns bland annat exempel på att Chat GPT gett rådet att man ska ta livet av sig när den använts som dialogpartner. Även när det handlar om forskning finns det en risk att man hamnar helt fel, enligt Li Felländer-Tsai. 

Hon tycker att det är viktigt att vara medveten om att användning av Chat GPT ökar risken för snedvridning och brister. 

En kärnfråga är också vem som bär ansvaret för det som Chat GPT genererar. 

– Är det företaget som har gjort Chat GPT? Eller är det den ansvariga forskaren? De frågorna har vi inte svar på. Här måste vi jobba tillsammans med jurister, filosofer, vetenskapshistoriker och etiker. 

Allra mest brådskande är dock att diskutera och ta ställning till vilken roll Chat GPT och andra AI-verktyg ska få i sjukvården, enligt Li Felländer-Tsai. 

– Det finns en risk för stor naivitet bland vårdpersonal, där man till exempel litar blint på kliniska beslutsstöd. 

Läs också:
Hajpad AI delar forskarvärlden
»Den är inte en databas med fakta – utan enbart en statistisk modell«