Hälsosystemets aktörer tar inte chattbotarna på allvar. På läkarmötet är den viktigaste upplysningen att faxa LMA-kort till apoteket vid förskrivning av spacer. På läkarprogrammet handlar diskussionen om fusk med Chat GPT. I Läkartidningen uppmanas vi till försiktighet: Chat GPT hittar på källor och »killgissar«. Tidsandan överskattar möjligheterna, sägs det.

Men debatten missar teknikens systemskakande effekter. GPT-4 är toppelev i biologi, juridik, konsthistoria, medicin och psykologi [1]. Hindren för att vi ska bli bortautomatiserade det närmaste decenniet är huvudsakligen institutionella. Vi kan inte använda dagens modeller (GPT-4, Bard, Bing AI, Claude, autoGPT osv) av GDPR-skäl, men modeller som kan köras i slutna system inom vården är på väg. En student berättar att de flesta kursare låtit Chat GPT skriva personliga AT-brev. Undervisning, forskning och klinik blir aldrig desamma.

Jag vill bemöta två påståenden:

  • »Chat GPT är bara en statistisk modell«: Ja, de reaktioner datorernas kiselatomer ger kan beskrivas av avrundade siffror, men i den bemärkelsen är också du en statistisk modell. Även dina neuron låter sig beskrivas med matematiska modeller [2]. Chat GPT svarar inte med det mest sannolika ordet utifrån all text på internet. Modellen överträffar tidigare versioner för att den eftersträvar sociala reaktioner (»belöning«) snarare än det mest sannolika ordet [3].
  • »Chat GTP är på toppen av hajpkurvan«: Gartners hajpmodell är inte baserad på empiriska data [4]. Den bygger på fixerade innovationer, men i dag kryper paradigmskiftena allt närmare varandra. Appar uppdateras när vi sover. Samspelet mellan hajp och faktisk förmåga blir då dynamiskt. Innan vi löst de institutionella hindren för breddinförande i vården har bättre AI-modeller lanserats.

Jag ser följande implikationer:

  • Vårdgivare: Modellerna bör utforskas med syntetiska data. Kan de hjälpa oss att skriva journaler? Det verkar så [5]. Kan de ge oss förslag i knepiga fall? Nästa Chat GPT (nu i testfas) kan hämta fallrapporter och sammanfatta. Vården kan inte lämna personuppgifter till Chat GPT, men möjligheter till egenvård ökar. Snart dyker patienter upp med kloka och nyanserade GPT-svar. Låt oss hitta bra sätt att hjälpa dem!
  • Beställare: Hur påverkar rationaliseringar behovet från beskrivningssystem och ersättningsmodeller? Vad händer om läkaruppgifter kan »task-shiftas« till sjuksköterskor? Kan över- respektive underkodning av DRG upptäckas med automatiserade stickprov?
  • Forskare: Microsoft och Google meddelar att modellerna ska integreras i alla produkter. Att skriva utan AI blir som att skriva utan referenshanteringsprogram.
  • Lärare: Framtidens läkare behöver tränas i chattmodeller. Högskoleförordningens mål att »visa förmåga att använda digitala verktyg« kan knappast tolkas annorlunda.
  • Granskare: Myndigheter med tillsynsansvar bör utforska hur modellerna kan effektivisera granskning och systemanalyser. Väsentligt kortare handläggningstider är möjliga.
  • Forskningsfinansiärer: Planera för utlysning av särskilda medel för metodologisk och patientnära chattbotsforskning.
  • Fackliga representanter: Fatta rodret och forma framtiden! Kanske slipper vi snart springa snabbare för varje år.

Så, skrev GPT-4 den här debattartikeln? Nej! Jag försökte, men den var för mån om att dämpa förväntningarna på sig själv. Ännu några år behövs vi (för mer än att faxa LMA-kort). Men tro inte att tidsandan överskattar den eld som AI har tänt.

»Jäv«: Att faxa är det tråkigaste jag vet.