De senaste månaderna har många av oss häpnat inför de otroliga framsteg som textbaserade AI-system gjort. I fikarummen har vi hört kollegor som använt tjänsten till allt från att skriva haikudikter till att producera utmärkt patientinformation.

Denna teknologi kommer med stor sannolikhet att spela en påtaglig roll för samhällsutvecklingen i stort och kunna revolutionera de flesta branscher. En högaktuell fråga är därför hur utvecklingen påverkar utbildningen av läkare och i synnerhet våra läkarutbildningar.

Kan vi fortsätta att examinera läkarstudenter som om ingenting har hänt?

Det är ingen överdrift att påstå att ChatGPT (generative pre-trained transformer) [1] tagit såväl internet och allmänheten som universitetsvärlden med storm. Så vad är då ChatGPT?

Grovt förenklat rör det sig om en AI-baserad språkmodell som via övervakad inlärning och förstärkt lärande lärt sig att predicera ord och ordföljder med hjälp av enorma mängder skriven text. Modellen kan användas för allt ifrån att sammanfatta längre textstycken till att – på kommando – skriva en uppsats om franska revolutionen eller temporalisarterit, eller redogöra för etiska principer kring prioriteringar för hälso- och sjukvård. Egentligen är det bara människans fantasi som sätter gränser för vad modellen kan prestera i textväg.

När möjligheten nu finns att – med enkla kommandon – överlåta skrivande och analytiskt tänkande till en datormodell blir den springande punkten för våra universitetsutbildningar (som ju regleras i högskoleförordningen [2]) hur vi ska kunna examinera studenterna på ett rättssäkert sätt.

Vi är långt ifrån ensamma om att känna oro över hur AI-baserade språkmodeller kan komma att påverka utbildningssystemet. Nyligen uppmärksammade exempelvis en historiker vid Lunds universitet problemet i Svenska Dagbladet [3].

Eftersom läkarprogrammen innehåller relativt många examinerande moment som kräver fysisk närvaro kanske de påverkas i mindre omfattning? Frågan om hur vi ska kunna kontrollera att studenternas skriftliga hemuppgifter och hemtentor inte sammanställts av AI-baserade språkmodeller kvarstår dock.

Vi ser några tänkbara lösningar. En möjlighet för lärosätena att minska riskerna för fusk är att helt övergå till muntliga eller övervakade examinerande moment samt fortsätta med, och eventuellt utveckla, salstentamen. Ett annat alternativ är att introducera fler OSCE-examinationer (objective structured clinical examination) även för lärandeaktiviteter som tidigare främst har examinerats genom reflekterande studentessäer. Exempel på sådana ämnesområden är medicinsk etik och mänskliga rättigheter.

Teknologin har också en förmåga att arbeta på flera fronter. Det finns redan lovande program som kan beräkna och uppskatta sannolikheten för att en text är genererad av en artificiell intelligens eller skriven av en människa [4]. Reliabiliteten hos sådana verktyg måste dock testas för att garantera rättssäkerheten. Det får till exempel inte vara upp till examinatorns godtycke att döma ut en text som AI-genererad utan pålitligt underlag.

I väntan på permanenta lösningar är det viktigt att utbilda universitetslärare, handledare och läkarstudenter i hur de nya AI-systemen fungerar och hur de kan/bör användas. Företrädare för läkarutbildningarna bör också vara medvetna om att teknologin har förmåga att redan nu förändra förutsättningarna för examinationer, och förse lärare och examinatorer med rätt verktyg.