Hajpen kring artificiell intelligens (AI) inom det medicinska området är fortsatt stark [1]. Potentialen och förmågan hos AI-systemen är uppenbar för de flesta, men få är lika medvetna om hur viktigt det är att de konstrueras på rätt sätt.
Lika effektiva, tillgängliggörande och kostnadsbesparande som AI-systemen har potential att vara om de byggs rätt, lika rasistiska, misogyna och ojämlikhetsalstrande riskerar de att bli om de konstrueras fel [2, 3].
Den tekniska utvecklingen har högt tempo, men den etiska diskussionen hamnar efter, vilket gör att vi läkare riskerar att hamna i trångmål i vårt dagliga kliniska arbete. Tre viktiga områden som berör AI-etik är ansvarsfrågan, systematisk bias och frågan om läkarnas medverkan vid utveckling.
Ansvarsfrågan kan exemplifieras på följande sätt; Rut genomgår en röntgenundersökning. Ett AI-system bedömer att det inte finns något avvikande och Rut får lugnande besked. Ett år senare söker hon vård igen och det visar sig att hon har en tumör i höger lunga. Vid eftergranskning framgår att tumören kunde ses redan på den första bilden. Vem är ansvarig? Är det ingenjörerna som utvecklade algoritmen, är det den som köpte in systemet, eller är det läkaren som förmedlat beskedet?
En lösning är att AI-systemen endast blir rådgivande, och att läkaren som fattar beslut blir juridiskt ansvarig. Men är hen moraliskt ansvarig? Man kan definitivt argumentera för motsatsen.
Implementering av verktyg som effektiviserar bedömningar riskerar att leda till ökade produktionskrav. För att läkaren ska hinna med kommer granskningarna inte att kunna vara lika rigorösa. Risken är då stor att läkaren får en övertro på sitt automatiserade verktyg och fattar beslut utifrån sin officiella befogenhet, men utan egentlig makt eller inflytande, så kallad rubberstamping« [4]. Frågan är om läkaren i dessa fall verkligen bör hållas juridiskt och moraliskt ansvarig.
Kognitiv bias (systematiska tankemässiga misstag) finns inte bara i den mänskliga hjärnan. Även AI-system kan vara drabbade – och riskerna med detta är då så mycket större. En enskild läkare med skadlig bias skapar bekymmer för de enskilda patienter hen träffar, medan skadlig bias i ett AI-system kan få enorma konsekvenser.
En stor del av problemet beror på underrepresentation av träningsdata [3]. Precis som läkaren lär sig av de fall hen ser lär sig AI-systemet från de data som finns tillgängliga. En läkare som exempelvis bara tränar på att bedöma hudförändringar hos ljushyade blir duktig på det, men mindre bra på att bedöma förändringar hos mörkhyade [5, 6]. I databaser för träning av hudbedömningsalgoritmer är personer med mörk hud kraftigt underrepresenterade [7]. Om detta fortsätter är risken stor att hälsomässiga ojämlikheter cementeras [3].
Den tredje aspekten rör frågan om medverkan vid utveckling av algoritmer. Vi läkare får inte sitta kvar i passagerarsätet och låta de tekniska professionerna utveckla sjukvårdsalgoritmer utan vårt inflytande. Även patientföreträdare bör vara direkt involverade, men att engagera kliniskt patientansvariga läkare kan indirekt öka patientfokus.
En AI-ingenjör, en vd för ett medicintekniskt bolag eller andra med avstånd till en sjuk eller lidande person riskerar att reducera patienten till en datapunkt. Läkaren kan förstås agera på samma sätt, men det finns en skillnad – att ha fått förmånen och förtroendet att bära ansvaret för en annan människas liv ger en ansvarskänsla och samhörighet. Läkaren kan, med sin personliga erfarenhet, hjälpa till att se den enskilda patienten i ett hav av data.
Vi har stor tilltro till att läkarna och AI-systemen tillsammans kan göra fantastiska saker för vården. Vi läkare måste dock göra vår del för att bidra till en etiskt hållbar sjukvård. De traditionella lärandemålen i läkarutbildningen måste därför ge utrymme för etisk reflektion kopplad till nya tekniska innovationer, inklusive AI-algoritmer.