Som professor i distribuerade datorsystem vid Luleå tekniska universitet både undervisar och forskar Peter Parnes om användande av ny datorteknik. I universitetsvärlden har diskussionen om Chat GPT främst handlat om oron för fusk. Men även om risken finns, ser Peter Parnes framför allt textroboten som ännu ett verktyg för studenter, lärare och forskare. Han jämför med andra hjälpmedel, som miniräknare och statistikprogram, som tillkommit genom åren.
– I dag sitter inte en människa och skriver siffror i rutnät på papper och försöker dra slutsatser ur det, utan vi använder olika dataanalyser. Det ifrågasätter ingen.
Peter Parnes använder själv Chat GPT i sitt arbete – främst för att komma i gång med texter eller för att förbättra texter han redan skrivit. Det är också där han ser den största användningen för Chat GPT.
– Den är ju inte en databas med fakta, utan enbart en statistisk modell för att beräkna fram nästa ord eller del av ord i en mening. Chat GPT har ingen uppfattning om »rätt« eller »fel«.
Den vill däremot gärna vara till lags och är duktig på att fabricera nya ord och meningar, säger Peter Parnes. Till exempel kan den hitta på referenser och till och med konstruera egna URL-länkar, som vid första anblicken ser riktiga ut, men som inte leder någonstans.
– Häromdagen använde jag Chat GPT för att skriva en kursplan, och då uppfann den en kursbok som jag hade skrivit. Det var ju smickrande, förstås, men fel.
Uppenbara tokigheter, som en påhittad lärobok är lätta att upptäcka, men det betyder också att det kan gömma sig mer svårupptäckta fel som inte är lika enkla att identifiera, säger Peter Parnes. Källkritik är därför A och O.
Han tror att forskare sannolikt kommer att ha störst nytta av Chat GPT inom fält de redan behärskar väl, eller som ett verktyg för att förbättra redan befintliga texter.
– Då hittar den inte på eller lägger till ny information, utan skriver bara om texten som man bett om, till exempel i en mer formell stil.
Det är dock viktigt att forskare som använder sig av Chat GPT redovisar det. Används chattroboten i skrivandet av vetenskapliga artiklar är det självklara, enligt Peter Parnes, att göra det i metoddelen.
– På samma sätt som man anger vilken labbutrustning eller vilka datasystem man har använt bör man ange om man använt något AI-verktyg, och i så fall vilket.
Men även om Chat GPT kan bidra till att underlätta för forskare finns potentiella risker. Överanvändning av detta och andra så kallade generativa AI-system kan bidra till att vår egen kreativitet går förlorad, säger Peter Parnes.
– Blir vi för beroende av tekniken är risken att vi slutar tänka utanför ramarna och förlorar förmågan att skapa något nytt och unikt.
En annan risk är den mängd text som kan tänkas produceras om Chat GPT börjar användas i stor skala. Inom den akademiska forskningen kan det leda till ett överflöd av artiklar och manuskript som mindre nogräknade tidskrifter publicerar.
– På sikt riskerar det att skada allmänhetens förtroende för forskningen, säger Peter Parnes.
Han påpekar att Chat GPT och liknande tekniker därför bör användas med eftertanke och försiktighet.
– Vi måste fortsätta att utveckla vår egen kreativa förmåga och använda generativ AI som ett komplement, inte som en ersättning.
Läs också:
Hajpad AI delar forskarvärlden
»Risken är att man är naiv och bara hoppar på teknologin«