Är jakten på den ”rätta” AI-strategin fel utgångspunkt?

Universiteten söker efter den rätta strategin för AI i examination – men problemet kan vara av en art som saknar slutgiltiga lösningar. En ny studie visar hur förståelsen av problemtypen påverkar vilka vägar framåt som blir möjliga.

Lärare förväntas vidta åtgärder som löser eller mildrar de problem som användningen av AI orsakar för studenters lärande mer generellt och examinationers effektivitet och pålitlighet. En lång rad förändringar har genomförts; hemtentamina har modifierats eller ersatts med salstentamina, studenter har informerats om skillnaden mellan tillåten och otillåten användning av AI, olika AI-detektionsverktyg har testats och mycket annat.

Men hur vet vi när vi hittat lösningen på dessa problem? När kan vi släppa AI-problemet och fokusera på biokemi, konsthistoria, logik eller vad det nu är vi egentligen ska forska och undervisa om? Vi behöver veta hur en lösning ser ut för att veta om vi funnit den. I en ny artikel i Assessment & evaluation in higher education argumenterar Corbin m.fl. för att utmaningen som AI utgör för examination är ett så kallat lömskt problem (eng. wicked problem) och att detta har avgörande konsekvenser för hur vi bör förhålla oss till arbetet med att lösa det.

Begreppet "wicked problem" myntades av designforskarna Horst Rittel och Melvin Webber 1973 som ett sätt att beskriva samhällsproblem som inte låter sig lösas på samma sätt som tekniska eller naturvetenskapliga problem. De identifierade tio kännetecken, bland annat: problemet saknar en entydig formulering; det finns ingen tydlig slutpunkt där problemet är "löst"; lösningar kan inte utvärderas binärt som rätt eller fel utan måste alltid utvärderas som bättre eller sämre; och varje försök att lösa problemet får konsekvenser som inte kan återtas. Dessutom lyfter de fram att lömska problem ofta är ett symptom på andra, djupare problem.

Kontrastklassen består av så kallade "tama problem" – problem som har en tydlig definition och där det går att avgöra om en lösning är korrekt. Kanske går det till och med att i förväg avgöra vad som skulle vara en korrekt lösning. Skillnaden mellan lömska och tama problem handlar inte om svårighetsgrad utan om problemets karaktär och hur vi ska ta oss an att lösa det. Ett tamt problem kan vara mycket svårt att lösa, men vi vet åtminstone vad en lösning skulle innebära. För lömska problem saknas denna klarhet.

Författarna genomförde semistrukturerade intervjuer med 20 kursansvariga lärare vid ett stort australienskt universitet. Deltagarna var jämnt fördelade över samtliga fakulteter och hade valts ut för att de ansågs arbeta aktivt med att anpassa sina examinationer till AI.

Resultaten visar att lärarnas erfarenheter av att arbeta med att försöka lösa problemet med AI för examination uppfyllde samtliga tio kännetecken på lömska problem. Några exempel:

Ingen entydig problemformulering: Lärarna definierade problemet på helt olika sätt. En lärare betonade att AI redan används i arbetslivet och att studenter måste förberedas för detta. En annan beskrev AI-användning som en form av bedrägeri som resulterar i att studenter "slutar universitetet utan att ha lärt sig någonting".

Ingen stoppunkt: Flera lärare uttryckte osäkerhet kring när deras anpassningar var tillräckliga. En lärare frågade sig: "Har jag varnat studenterna tillräckligt? Har jag hittat rätt balans? Jag vet inte."

Varje försök räknas: Beslut om examinationsformer har konsekvenser som inte enkelt kan återtas. En lärare beskrev oro för att experimentella examinationsformer skulle leda till färre studenter och i förlängningen hota kursens existens.

Symptomet på andra problem: Flera lärare beskrev AI-utmaningen som ett symptom på befintliga strukturproblem – en affärsmodell byggd på distansundervisning, en transaktionell utbildningskultur där studenter främst vill "klara tentan", och kronisk tidsbrist som hindrar genomtänkt kursdesign.

Varför spelar detta någon roll? Författarna menar att om vi feldiagnostiserar problemtypen blir våra svar kontraproduktiva. Om vi behandlar AI-utmaningen som ett tamt problem – något som kan lösas med rätt policy, rätt detektionsverktyg eller rätt examinationsformat – riskerar vi frustration, ständiga policyändringar och skuldbeläggning när lösningarna inte fungerar. Men om vi erkänner problemet som lömskt öppnas andra möjligheter: att acceptera kompromisser, att tolerera variation mellan kurser och discipliner, och att bygga in utrymme för kontinuerlig revidering.

Som praktisk vägledning föreslår författarna tre meta-designstrategier:

Tillstånd att kompromissa: Alla lösningar innebär avvägningar. En examination som är säker mot AI-fusk kanske offrar autenticitet eller kreativitet. Detta är inte ett tecken på misslyckande utan en nödvändig konsekvens av problemets karaktär.

Tillstånd att avvika: Det som fungerar för en liten seminariegrupp i filosofi fungerar inte för en storkurs i företagsekonomi. Att olika kurser väljer olika strategier bör ses som kontextuell klokhet, inte som institutionell inkonsistens.

Tillstånd att iterera: AI-verktygens kapacitet förändras snabbt. Kursdesign måste därför byggas för anpassning snarare än fixeras. Revidering bör ses som professionell utveckling, inte som designmisslyckande.

Kommentar: Personligen är jag kluven till denna artikel. Definitionen av lömska problem är lite väl luddigt i kanten för min smak. Författarna hävdar bland annat att lömska problem karaktäriseras av att de inte kan defineras på ett klart och konklusivt sätt. Jag är inte säker på att detta verkligen är sant om de hot som AI-användning utgör för examination och lärande. En annan inställning är att vi inte alls pratar om ett AI-problem utan om ett stort antal olika problem. Några av dem kan definieras på ett precist sätt. Att AI, och inte studenten själv, har skrivit uppsatsen är ett tydligt problem. Visst kan det vara svårt att göra gränsdragningar (hur mycket hjälp får man ta av AI för att det ska vara problematiskt), men det är inte väsentligt annorlunda än problemet att studenten låtit storasyster skriva uppsatsen. Så istället för att den begreppsliga insikten ska vara att det finns ett lömskt AI-problem, kanske det är att det inte finns ett AI-problem utan flera olika. Några av dessa är kanske lömska. På liknande sätt kan man fundera om det är viktigt att, som författarna säger, beskriva AI-problemet som att det saknar en stop-regel. (Det vill säga att det inte finns något klart svar på när problemet är löst.) De situationer de beskriver kan, förefaller det, lika gärna beskrivas som att det finns flera olika AI-problem. Lösning på ett kan ibland ge upphov till ett nytt AI-problem, eller lösning på ett av dessa problem kan motverka lösningen på ett annat.

Det finns några andra, rent begreppsliga, oklarheter kring hur det (eller de) problem som AI orsakar för examination och lärande ska beskrivas. Min invändning är dock inte att författarnas kategorisering är fel, utan bara att det är åtminstone oklart om den är rätt. Kanske är själva frågan om AI är ett lömskt problem, själv ett lömskt problem?

Men helt oavsett detta tycker jag att artikeln är intressant och värd att läsa. Sannolikt kan vi, åtminstone under lång tid framöver, förväntas oss att AI kommer fortsätta vara en utmaning för examination. Inte bara examinationsformer utan också undervisning behöver sannolikt kontinuerligt anpassas till dessa nya verktyg. Författarnas förslag om hur vi bör ta oss an dessa problem är kloka råd. Och de förefaller vara kloka råd helt oavsett om distinktionen mellan lömska och tama problem är tillämpbar här eller ej. Uppmaningen att tillåta variation i hur vi tacklar utmaningar, såväl mellan olika discipliner och från lärare till lärare, en insikt om att kompromisser kommer att behövas och tillåtelse att göra dessa och en flexibilitet att kontinuerligt anpassa kurser och examinationer är värd att ta på allvar. Lärare som ska anpassa sina examinationer och ledningsgrupper som vill formulera generella AI-riktlinjer skulle göra såväl sitt eget som varandras arbete lättare av ett sådant förhållningssätt.

Text: Sama Agahi, Filosofiska institutionen

Studien
Corbin, T., Bearman, M., Boud, D., & Dawson, P. (2025). The wicked problem of AI and assessment. Assessment & evaluation in higher education, 1-17.

Nyckelord: Generativ AI, GenAI, bedömning, undervisningsteknologi

Senast uppdaterad: 2026-02-05

Sidansvarig: Institutionen för pedagogik och didaktik