Kritiskt tänkande — generaliserad förmåga eller specifik spets?
En ny studie visar hur ekonomistudenters analytiska förmåga kan testas med ett ämnesspecifikt verktyg, och pekar på att hur vi mäter spelar roll för vad vi faktiskt ser.
Kan våra studenters förmåga till kritiskt tänkande mätas med disciplinöverskridande tester, eller måste testet anpassas efter det ämne de studerat? Denna praktiska fråga berör en teoretisk konflikt om hur kritiskt tänkande ska förstås: är kritiskt tänkande en överförbar, generell kognitiv förmåga, eller är förmågan sammanlänkad med ämneskunskaper så tätt att det också måste bedömas inom specifika kunskapsdomäner?
I en färsk studie i Studies in Higher Education argumenterar författarna för att det finns ett värde i domänspecifika undersökningar av kritiskt tänkande och beskriver hur ett verktyg för att mäta ämnesspecifik kritiskt tänkande kan utformas. Verktyget, som använts på ett stort antal studenter vid ett ryskt universitet, visar att studenternas resultat får en tydlig ökning efter att de genomgått en kurs i ekonomiskt tänkande.
Det finns anledning att bry sig om vilka verktyg vi använder för att mäta kritiskt tänkande. Det finns en bred förväntan, både bland lärare och i samhället i stort, att högre utbildning ska bidra till att stärka studenternas kritiska tänkande och analytiska förmåga. Dessutom finns en stark och välgrundad övertygelse bland forskare om att det är möjligt att lära ut kritiskt tänkande och analytisk förmåga på ett systematiskt sätt.
För att lyckas med detta behöver vi dock först förstå vad kritiskt tänkande mer specifikt innebär och hur det ska mätas på ett meningsfullt sätt. En central fråga är till vilken grad kritiskt tänkande är en generell, överförbar förmåga och till vilken grad den är domänspecifik. Hur vi svarar på detta kan påverka både hur vi lär ut det och hur vi mäter det.
Det är värt att notera att det ofta är just den antagna generella och överförbara karaktären som gör dessa förmågor så eftertraktade – de ses som ett sätt att rusta studenter för att navigera en föränderlig och svårövergriplig arbetsmarknad där specifik faktakunskap snabbt kan bli inaktuell.
När det kommer till mätning av kritiskt tänkande dominerar också generella test som behandlar förmågan som oberoende av ämneskontext. (Watson-Glaser Critical Thinking Appraisal, California Critical Thinking Skills Test, CLA, CLA+ m.fl.) Men vid sidan av dessa finns också ett antal domänspecifika tester.
I den aktuella studien argumenterar forskarna för värdet av domänspecifika tester. De har utvecklat ett verktyg för att mäta hur ekonomistudenters förmåga till kritiska tänkande stärks av en kurs i ekonomiskt tänkande.
Forskarna följde 427 förstaårsstudenter vid ett ryskt universitet genom kursen ”Economic Thinking”. Kursen är avsedd att förbättra kritiskt tänkande genom att låta studenterna öva sin problemlösningsförmåga i realistiska spel och fallstudier. Forskarna testade studenternas förmåga både med för- och eftermätning. Syftet var dels att undersöka hur studenternas kritiska tänkande utvecklades under kursen, dels att utveckla själva mätverktyget. Dessutom var forskarna nyfikna på hur resultatet på detta test korrelerade med studenterna (fakta-)kunskaper i ekonomi och med deras generella akademiska framgång.
Själva testet går till på så sätt att studenterna fick en ekonomiartikel att läsa och därefter ett antal uppgifter avsedda att bedöma deras kritiska tänkande. Tanken är att studenternas förmåga ska testas i en så realistisk situation som möjligt. Förmågorna som testas delas upp i fyra komponenter: tolka och kategorisera information och att sortera den (eng. verification of initial information), identifiera och utvärdera argument, hypoteser och klargöra begrepp (eng. judgement and hypothesis formulation), formulera och analysera hypoteser och argument med lämplig ekonomisk teori och metod (eng. economic analysis) och slutligen att värdera styrkor och svagheter i artikeln (eng. reflection). Deltagarna fick också göra ett prov med syfte att mäta deras (fakta-)kunskaper i ekonomi.
Studien påvisade en tydlig förbättring i kritiskt tänkande efter genomgången kurs (0.44 standardavvikelser). Forskarna poängterar dock att studiens kvasi-experimentella karaktär inte tillåter att dra slutsatsen att denna effekt endast härrör till kursen i Ekonomiskt tänkande. Forskarna noterar att tidigare studier på effekten av olika interventioner (kurser i kritiskt tänkande) har givit väldigt blandade resultat, och menar att det finns anledning att undersöka om domänspecifika tester kan ge mer precisa svar. Här antyder de att det kan vara ett problem att testa effekten på studenters kritiska tänkande om mätverktyget inte behandlar frågor, teorier och begrepp som studenterna är bekanta med från sina studier.
Kommentar: Den teoretiska frågan om kritiskt tänkande och analysförmåga är domänspecifik eller generell får inte riktigt något svar i denna artikel. Författarna beskriver också i artikelns avslutande reflektion att de tycker att framtida studier bör undersöka förhållandet mellan domän-specifikt och generiskt kritiskt tänkande. Här tänker jag att det finns tre frågor som, åtminstone initialt bör hållas isär. För det första, är kritiskt tänkande en domänspecifik eller domänöverskridande färdighet? För det andra, är det mest effektivt att lära ut denna färdighet i generiska kurser (specifik om kritiskt tänkande) eller inom domänspecifika kurser såsom den i studien? Och för det tredje, bör vi mäta studenters förmåga till kritiskt tänkande med uppgifter och frågor som hör till deras ämnesstudier?
Den här studien besvarar inte riktigt någon av dessa frågor, och en kritik mot den är att den inte heller riktigt håller dem isär. Ytterligare en kritisk reflektion är att den kategorisering av olika delar av kritiskt tänkande som görs i artikeln är otydlig och rörig. Möjligen är det en effekt av redogörelsen snarare än själva testet, men den innehåller ett antal formuleringar som är märkliga. Likväl finns det en del som är inspirerande i artikeln. Författarna visar, tycker jag, att det är ganska enkelt att konstruera ett test av kritiskt tänkande som är knutet till de kurser man ger och de specifika uppgifter och utmaningar som man vill rusta studenterna för. Nästa steg vore att systematiskt jämföra resultatet av sådana tester med de generiska tester som redan finns att tillgå. Helt oavsett om kritiskt tänkande är helt eller delvis domänspecifikt, så kan sådana tester ge värdefull information om hur ändringar i sådana interventionskurser påverkar studenternas förmåga. Att jämföra sådana domänspecifika tester med de generiska domänöverskridande tester som finns kan göras i nästa steg.
Vi har i tidigare nummer av AHF lyft fram artiklar som undersökt vilken effekt högre utbildning har på studenters förmåga till kritiskt tänkande. Studier som jämför studenter på olika utbildningar, och i olika länder, med hjälp av generiska tester av kritiskt tänkande väcker ofta frågor om hur mer specifikt studenterna har tränats i kritiskt tänkande. Studier av det slag som beskrivs i denna artikel kan användas för att generera mer data om effekten av specifika kurser i kritiskt tänkande. Även de som, precis som jag själv, menar att kritiskt tänkande är en i huvudsak generisk förmåga kan behöva data från fler domänspecifika tester. Om inte annat, för att undersöka relationer mellan den domänspecifik förmågan och de generiska testerna. Möjligen inspirerar denna artikel till fler steg i den riktningen.
Text: Sama Agahi, Filosofiska institutionen
Nyckelord: Kritiskt tänkande, domänspecifik bedömning, universitetsstudenter inom ekonomi, evidenscentrerad design, ekonomi-utbildning
Senast uppdaterad: 2025-06-09
Sidansvarig: Centrum för universitetslärarutbildning