I artikeln »Hajpad AI delar forskarvärlden« konstaterar Läkartidningens reportrar i början av året att Chat GPT väckt både fascination och förskräckelse inom den akademiska världen, och på debattplats i LT varnas för att debatten om Chat GPT missar teknikens systemskakande effekter. »Undervisning, forskning och klinik blir aldrig desamma«, hävdar författaren.

Nu är Sveriges Radio Vetenskapsradion först ut att rapportera att amerikanska National Institutes of Health (NIH), som ju är en betydande forskningsfinansiär, den 23 juni i år fattade beslut om att förbjuda all användning av AI-verktyg (exempelvis Chat GPT) för referentgranskning (peer reviews).

Bakgrunden till beslutet får vi i tidskriften Science, som skriver att NIH troligtvis sporrats av ett brev från en forskare som vid en konferens hört något han beskrev som »very scary«. En annan deltagare ska ha vittnat om hur Chat GPT blivit ett oumbärligt verktyg för att snabbt tröska sig igenom de tjocka högar av förslag man har att granska som referent för NIH. Andra deltagare bekräftade att Chat GPT sparar dem massor av tid.

En oroande utveckling, enligt NIH, och myndigheten var snabb att förbjuda all användning av Chat GPT och liknande AI-verktyg för »analyser och formulering av kritik« vid referentgranskning. Det australiska forskningsrådet (Australian Research Council) följde efter med ett liknande beslut 7 juli, och enligt Science väntas även det europeiska forskningsrådet (European Research Council) ta upp en diskussion om att förbjuda referenter att lämna in granskningar som skrivits med hjälp av AI-verktyg.

Det som enligt Science främst oroar forskningsfinansiärerna är risken för att sekretessen kring forskningsförslag bryts om AI-verktyg får tillgång till innehåll och data. NIH uttrycker bland annat oro för risken för »homogenisering« och menar även att det kan leda till en form av plagiat.

Läs även:
Hajpad AI delar forskarvärlden
Debatten om Chat GPT missar teknikens systemskakande effekter
Chat GPT genererade falska referenser