På Läkemedelsverket kallar man den kort och gott AI-gruppen. I framtiden ska den bestå av åtminstone tre personer som ska bli navet för kompetens inom artificiell intelligens på Läkemedelsverket.

– Det konkreta arbetet började i somras när jag formellt fick uppdraget som vetenskaplig ledare, berättar Gabriel Westman på Läkemedelsverket.

Han är både infektionsläkare, docent i infektionssjukdomar och civilingenjör, och har nu uppgiften att forma AI-gruppen. Den har i dag bland annat drifttekniker och projektledare. I april får den sin första medarbetare, en ingenjör, och senare hoppas man kunna rekrytera en doktorand.

Gabriel Westman, vetenskaplig ledare på Läkemedelsverket. Foto: Läkemedelsverket

En stor del av arbetet kommer vara inriktat mot myndighetens regulatoriska verksamhet.

– Det kan handla om tillsyn av medicinteknik där det redan finns AI-tillämpningar i drift, och där det kan finnas en gråzon med produkter som inte är CE-märkta i enlighet med gällande regler, säger Gabriel Westman till Läkartidningen.

– Vi ser även att man i kliniska prövningar använder AI-modeller för att till exempel klassificera kliniska utfall utifrån journaltext, bedöma röntgenbilder och annat. Där behöver vi kompetens för kunna bedöma om vi kan ge tillstånd till den typen av prövningar och sedan kritiskt granska resultaten.

Gabriel Westman nämner även godkännande av läkemedel som ett område för AI-gruppens arbete, eftersom man kan behöva analysera rådata från klinisk prövning. Framöver kan det dessutom bli vanligare med läkemedel som kommer paketerade tillsammans med medicintekniska produkter som innehåller AI, exempelvis inom precisionsmedicin.

– Data-science används alltmer, och vi måste följa med i utvecklingen för att kunna utföra våra regulatoriska uppdrag med det övergripande målet att främja folk- och djurhälsan, säger Gabriel Westman och fortsätter:

– Det är ett fält som växer snabbt, och det här är vår första ansats inom AI. Vi försöker naturligtvis möta omvärldens behov utifrån vår roll som statlig myndighet.

Läkemedelsverket har också skapat ett AI-labb för att utveckla egna lösningar för att effektivisera det interna arbetet. Det kan till exempel handla om farmakovigilans, analyser av biverkningsrapporter, där man redan i dag utvecklar en AI-modell för textanalys.

Men mycket handlar som sagt om Läkemedelsverkets tillsynsuppdrag för de medicintekniska produkter som är på väg in på marknaden. Gabriel Westman säger att det finns ett uppdämt behov av information och tolkning av lagar och regler bland både tillverkare och vårdgivare. Det är också en anledning till att myndigheten arrangerar ett seminarium om AI i medicinteknik i april.

– Vi upplever att det finns lite av ett vakuum där man behöver klargöra hur vägen framåt kan se ut. Jag uppfattar det som att parterna i nuläget delvis väntar på varandra, säger Gabriel Westman.

Artificiell intelligens kräver mycket data. Och ett stort område för Läkemedelsverket kommer att bli att granska hanteringen av data när AI-drivna system och produkter skapas, något Gabriel Westman liknar vid god klinisk prövningssed (GCP). Det kan vara frågor om hur data samlas in, delas upp, tas bort om individer inte vill ha uppgifterna sparade, eller hur man undviker integritetsproblem.

– Att implementera en AI-modell inom sjukvården är mer likt att rekrytera en ny medarbetare än att köpa en konventionell medicinteknisk produkt. Man måste veta hur den är tränad, vad har den träffat för patienter tidigare, hur vi utvärderar dess prestanda i den kliniska vardagen, när den behöver vidareutbildas och hur den hanterar osäkerhet och fel.

Han tror att det finns en allmän oro i Vårdsverige att AI-fältet drivs med ett alltför stort fokus på tekniken, snarare än på etik och patientsäkerhet.

– Jag har ju som infektionsläkare valt att arbeta med det här just för att vi ska behålla patientperspektivet i de tekniktunga frågorna, för vi tror att det är avgörande för att kvaliteten och innovationen ska nå hela vägen fram till patienten, säger Gabriel Westman och fortsätter.

– Vi ska hjälpa till att undvika fallgropar vid införande av AI-system i vården för att undvika att det urholkar förtroendet och hindrar framtida utveckling.