Matomo

spring til indhold
Photo by Iñaki del Olmo / Unsplash

AI flytter kvalitetssikringen over på de studerende

Hvem har egentlig ansvaret for at vurdere kvaliteten af AI-svar? Når studerende selv skal verificere alle svar, risikerer læringen at komme i anden række.

· 1 minut læses

Indholdsfortegnelse

Jeppe Klitgaard Stricker skriver på sin blog, at debatten om generativ AI i uddannelse ofte fokuserer på snyd og eksamener, mens en mere grundlæggende udfordring overses, nemlig den mentale belastning ved konstant at skulle verificere AI-genereret indhold. Generativ AI leverer en blanding af korrekte oplysninger og overbevisende fejl. Det kræver faglig dømmekraft at skelne mellem dem.

Tidligere var kvalitetssikringen i højere grad indlejret i uddannelsessystemet gennem peer review, fagligt kvalificerede undervisere og gennemarbejdede materialer. I dag forudsætter effektiv brug af generativ AI ekspertviden, som studerende endnu er ved at opbygge. Dermed flyttes ansvaret for kvalitetssikring fra institutionen til den enkelte studerende.

Konsekvensen er, at den mentale energi flyttes fra faglig fordybelse til kontrol og verifikation. Resultatet kan blive, at tid bruges på at kontrollere svar frem for at opbygge forståelse, samtidig med at sprogligt polerede AI-tekster skjuler faglige mangler.

Når generativ AI afkræver studerende ekspertviden
February 20, 2026I de seneste år har vi i uddannelsessektoren brugt betydelig energi på at debattere om mennesker kan opdage AI-genereret indhold, hvad vi stiller op med snyd, og hvordan fremtidens eksaminer skal se ud. Disse er vigtige emner, men de slører en anden problematik - nemlig den form for udmattelse, der indfinder sig i arbejdet med generativ AI-output. Dét at skulle finde ud af, om tekst kommer fra en maskine eller et menneske, og om teksten dernæst er troværdig, fjerner fagligt foku

Seneste