Det är i en mindre studie som amerikanska forskare har tittat närmare på läkares diagnostiska förmåga med respektive utan hjälp av AI-verktyget Chat GPT 4.

Studien omfattar 50 specialistläkare i allmänmedicin, internmedicin och akutsjukvård som fick i uppgift att resonera och ta ställning till sex olika patientfall, där det bland annat fanns uppgifter om anamnes och status.

Läkarna randomiserades till att antingen få ta hjälp av Chat GPT för att resonera sig fram till en diagnos, eller till att få klara sig med de resurser de brukade använda.

Forskarna analyserade deltagarnas diagnostiska förmåga utifrån en rad aspekter, däribland hur väl de motiverade sina diagnosförslag och förslag på fortsatt utredning. Poängen var att se hur väl läkarna resonerade sig fram till en diagnos, inte bara om de kom fram till rätt svar.

Enligt resultaten förbättrades inte läkarnas diagnostiska förmåga när de fick ta hjälp av Chat GPT. Samtidigt presterade Chat GPT bättre på egen hand än vad läkarna gjorde.

Enligt forskarna tyder det på att den här typen av teknik har potential att förbättra diagnostiken. Först måste man dock lägga mer krut på att optimera samspelet mellan människa och teknik, anser de.

Forskarna tror att resultaten kan förklaras av hur läkarna gjort för att mata AI-verktyget med information, så kallad prompting. Och att man genom att träna läkare i att formulera frågor till verktyget – eller integrera definierade frågor i kliniska arbetsflöden – skulle kunna förbättra resultatet.

Ta del av studien i Jama Network Open.

Läs också:

Chat GPT tio gånger snabbare på anteckningar än läkare i ny studie
Försäkringskassans nya AI-verktyg hjälper personal att tolka läkarintyg
AI förutser när en patient kan skrivas ut
Hajpad AI delar forskarvärlden
Nya nav ska ta AI till vårdgolvet