I den forrige artikel undersøgte jeg, hvordan AI kan udfordre underviserens faglige identitet, og dette er den tredje artikel i en serie på foreløbig syv. Hvis du ikke har læst de to første artikler, vil jeg anbefale, at du starter her:

Mødet med generativ AI i undervisningen kan vække en dyb følelse af magtesløshed hos mange undervisere, for pludselig kan AI-systemer udføre opgaver, der før krævede menneskelig ekspertise. Det kan være med til at rokke ved vores oplevelse af kontrol og autonomi i klasseværelset. I denne artikel vil jeg dykke ned i konkrete eksempler fra min egen hverdag og samtaler med undervisere for at belyse de nye udfordringer, vi står over for.

Når AI-systemer pludselig kan udføre opgaver, der før krævede menneskelig ekspertise, kan det rokke ved ens oplevelse af kontrol og autonomi i undervisningen. Katrine Friisberg påpeger, at brugen af AI indebærer et element af magtafgivelse, fordi “algoritmer, som vi ikke kender, vælger de informationer, vi får adgang til” (Friisberg, 2023). Når både undervisere og elever i højere grad stoler på AI-systemers anbefalinger, kan de føle, at teknologien kontrollerer dem frem for, at de selv har styringen.

Denne følelse kan forstærkes, når elever bruger AI til at “kortslutte” undervisningen, for eksempel ved at aflevere ChatGPT-genererede opgaver. Pludselig kan underviseren føle sig reduceret til en passiv tilskuer i sin egen undervisning. Den konstante strøm af nye AI-værktøjer giver os følelsen af aldrig helt at kunne følge med. Ifølge Rafferty (2023) forventes det ofte, at undervisere bliver “AI-eksperter nærmest overnight” – en umulig opgave, der let kan føre til følelser af utilstrækkelighed og magtesløshed over for teknologien. Og, selv når vi er nysgerrige på teknologien, kan vi opleve en form for magtesløshed, når det går op for os, hvilke muligheder eleverne pludselig har til rådighed, uden at de selv kan overskue teknologiens betydning for deres egen læring.

Manglende sprog til dialog om AI med eleverne

Jeg vil starte denne artikel med et eksempel fra mit eget gymnasium. 1.g’erne er netop startet, og i den forbindelse har vi den obligatoriske it-introduktion, hvor jeg besøger klasserne og gennemgår skolens regler samt introducerer eleverne til de it-værktøjer, der skal bruges i undervisningen. På et af mine slides viser jeg en oversigt over skriftlige afleveringer, hvor det fremgår, at vi på gymnasiet anvender Urkund til at undersøge, om eleverne har plagieret. Mens jeg gennemgår denne slide, rækker en elev hånden op og spørger: “Kan I finde ud af, om eleverne har brugt ChatGPT?”.

I situationen tolkede jeg spørgsmålet negativt – at eleven blot var interesseret i at finde ud af, hvor meget man kunne slippe afsted med at bruge ChatGPT for at undgå selv at lave opgaverne. Men ved nærmere eftertanke indså jeg, at der også kunne ligge andre motiver bag. Måske var eleven oprigtigt nysgerrige på teknologien og ønskede en åben dialog om dens muligheder og begrænsninger i en læringsmæssig kontekst? Måske søgte eleven vejledning i, hvordan man kan bruge ChatGPT etisk og ansvarligt som et supplement til sin egen læring?

Under alle omstændigheder følte jeg mig på en måde magtesløs i den pågældende situation, for jeg havde ikke forberedt et gennemtænkt svar og manglede generelt et sprog til at kommunikere klart om sprogmodeller rettet mod eleverne. Mit svar blev, at vi ikke har systemer til at opdage det, men at underviserne er dygtige og kan gennemskue brugen af AI i elevernes afleveringer. Mit svar var måske ikke helt retvisende, for forskning viser, at vi ofte har svært ved præcist at afgøre, hvornår og hvordan generativ AI har bidraget til en opgave (Fleckenstein et al., 2024).

Derfor har elevens spørgsmål, som først fremkaldte en følelse af magtesløshed, måske i virkeligheden åbnet op for en vigtig refleksion. Hvordan kan vi som undervisere bedst møde elevernes spørgsmål og adfærd i forhold til AI-værktøjer? Hvordan finder vi balancen mellem at sætte klare rammer og samtidig invitere til en nysgerrig og konstruktiv dialog?

Magtesløshed i klasseværelset og til eksamen

I min dagligdag og i samtaler med andre undervisere oplever vi, hvordan nogle elever bliver mere og mere afhængige af teknologien, til det punkt hvor hver eneste aflevering bærer tydeligere præg af ChatGPT end af elevens egen stemme. Et konkret eksempel var en elev, der i sin eksamensrapport skrev: “Det lyder som en god plan for at skabe opmærksomhed og motivere unge til at blive bloddonorer. Her er den korrigerede version af din tekst:”. For mig var det et klart tegn på, at eleven havde brugt AI som hjælpeværktøj, hvilket jeg også tidligere havde observeret i undervisningen.

Men hvad gør man som underviser i en sådan situation? Jeg må ikke konfrontere eleven direkte under eksamen, men er nødt til at sende min bekymring videre til rektor og deltage i en række møder på grund af én sætning. På den ene side er det vores ansvar som undervisere at sikre, at eleverne lever op til de faglige og etiske standarder, der gælder ved eksamen. Hvis vi opdager, at en elev har brugt ChatGPT på en måde, der kan tolkes som eksamenssnyd, er vi forpligtet til at reagere og indberette det til ledelsen. Men samtidig sætter denne situation os i et dilemma. For hvad nu, hvis eleven reelt har brugt ChatGPT som et legitimt hjælpeværktøj? Hvad nu, hvis den “korrigerede version”, som eleven refererer til, blot er resultatet af, at eleven har brugt AI’en til at få feedback og forbedringsforslag til sin egen tekst? Er det så stadig snyd?

Censor og jeg vurderede, at vi ikke havde tilstrækkeligt grundlag til at starte en sag, så vi foretog os ikke yderligere over for den pågældende elev. I sidste ende er det op til rektor at vurdere, om eleven har snydt ved at bruge ChatGPT, og denne vurdering må nogle gange træffes på baggrund af en formodning snarere end konkrete beviser – en situation, der også kan efterlade ledelsen med en følelse af magtesløshed.

Som undervisere står vi her i en gråzone, hvor vores dømmekraft og skøn pludselig bliver afgørende. Vi kan ikke længere henvise til klare regler eller systemer, men må selv vurdere, hvornår brugen af AI overskrider en grænse. Denne vurdering kan have store konsekvenser for den enkelte elev. Det er en tung byrde at bære, som let kan føre til en følelse af magtesløshed. Uanset hvad vi gør, risikerer vi at træffe en beslutning, der enten er uretfærdig over for eleven eller kompromitterer vores faglighed og værdier.

Samtidig rejser denne situation spørgsmål om vores egen autonomi og kontrol som undervisere. Hvis vi konstant skal agere detektiver og forsøge at afsløre, om eleverne har brugt ChatGPT, risikerer vi så ikke at blive reduceret til en slags kontrollører? Hvad gør det ved vores relation til eleverne, hvis de oplever os som nogen, der primært er ude på at “fange” dem? Det kan skabe en følelse af magtesløshed, fordi vores egentlige opgave – at facilitere læring og støtte elevernes udvikling – pludselig bliver overskygget af dette behov for kontrol.

ChatGPT udfordrer undervisernes faglighed

Et andet eksempel er fra en underviser, der i historieundervisningen oplevede, at eleverne brugte ChatGPT til at udfordre underviserens faglighed. Helt konkret havde underviseren undervist i Anden Verdenskrig, og eleverne havde undersøgt emnet ved hjælp af ChatGPT i stedet for at bruge deres lærebog eller søgninger på Google. Her viste det sig, at eleverne stolede mere på sprogmodellens output end på underviserens forklaring. Dette udløste en stor diskussion mellem eleverne og underviseren om Winston Churchills rolle under krigen. Problemet var dog, at ChatGPT præsenterede Churchill ud fra et amerikansk synspunkt og ikke et bredere vestligt perspektiv. Dette skabte en konfrontation, hvor eleverne følte sig bedre oplyst af AI’en end af underviseren.

Underviseren følte sig magtesløs og oplevede endda en form for eksistentiel krise på grund af situationen. Pludselig blev hans faglige autoritet og mange års ekspertise udfordret af en AI, som eleven tilsyneladende havde mere tiltro til. Det rejste ubehagelige spørgsmål: Hvad er underviserens rolle, hvis eleverne alligevel har mere tillid til maskinerne? Bliver man som fagperson reduceret til en slags moderator for elevernes interaktion med AI?

Her kommer Banduras begreb om self-efficacy, som jeg berørte i den forrige artikel, igen i spil (Bandura, 2013). Underviserens tro på sine egne evner til at mestre både det faglige stof og de nye teknologier er afgørende for oplevelsen af kontrol og autonomi. Hvis vi har en høj faglig og teknisk self-efficacy, vil vi være bedre rustet til at se elevernes brug af AI som en anledning til dialog og kritisk refleksion snarere end et angreb på vores autoritet. Vi kan hævde vores ekspertise, ikke ved at afvise AI, men ved at bruge den som afsæt for at diskutere forskellige perspektiver, kvalitetsvurdere kilder og træne elevernes dømmekraft. Omvendt risikerer undervisere med lav self-efficacy at føle sig underlegne og truet af AI-systemerne – en oplevelse, der kun forstærker magtesløsheden.

Selvom eksemplet med eleven, der udfordrede historieunderviseren, er tankevækkende, er det ikke nødvendigvis repræsentativt for alle elevers brug af ChatGPT. I mange tilfælde kan elevernes interaktion med AI faktisk være en anledning til dybere læring og udvikling af kritisk tænkning. Man kunne forestille sig elever, der bruger ChatGPT til at generere forskellige perspektiver på en historisk begivenhed og, i stedet for ukritisk at acceptere AI’ens output, bruger det som afsæt for en kritisk sammenligning med andre kilder. Hvilke forskelle og ligheder er der? Hvilke bias eller mangler kan identificeres i AI’ens fremstilling? Ved at stille disse spørgsmål kan eleverne udvikle en dybere forståelse af kildekritik og historisk analyse. I denne proces bliver AI’en ikke en erstatning for underviseren, men snarere et redskab, der kan fremme elevernes nysgerrighed og kritiske tænkning.

En undersøgelse blandt amerikanske lærere viser samme tendens: Elever anvender ukritisk AI-genererede svar, selv når de er åbenlyst forkerte, og de har sværere ved at arbejde vedholdende med svære opgaver (Grose, 2024). Som en engelsklærer udtrykte det, er eleverne hurtigere til at give op, hvis de ikke forstår noget med det samme. De frygter samtidig at blive opfattet som dumme af deres klassekammerater og antager, at deres tankeprocesser burde være lige så hurtige som AI.

Flere lærere peger dog også på konstruktive måder at imødegå disse udfordringer. Nogle anvender nyere bøger i undervisningen, da AI har sværere ved at generere fyldestgørende analyser af dem. Andre erstatter traditionelle prøver med skræddersyede spørgsmål og klasseaktiviteter, som AI ikke kan klare. Generelt er lærerne skeptiske, men pragmatiske. De ved, at AI er kommet for at blive, men tvivler på dets læringsmæssige potentiale og er opmærksomme på faldgruberne – i modsætning til visse beslutningstagere, der ukritisk hylder AI's muligheder og dermed risikerer at skyde genvej i forhold til elevernes læring og dannelse.

I sidste ende handler det måske om at finde en ny balance, hvor vi på den ene side fastholder vores ansvar for at sikre faglig integritet og retfærdighed til eksamen, men på den anden side også giver plads til, at eleverne kan udforske og anvende disse nye værktøjer på en etisk og gennemsigtig måde. Men det er en svær balance, og jagten på den perfekte løsning kan i sig selv føre til en følelse af magtesløshed.

Afslutning

Eksemplerne i denne artikel viser, hvordan generativ AI kan fremkalde en følelse af magtesløshed hos undervisere. Vi står over for vanskelige dilemmaer, hvor teknologien udfordrer vores autoritet, autonomi og relationer til eleverne.

Konkrete situationer, hvor en elev muligvis har brugt ChatGPT til sin eksamensopgave, sætter underviseren i et dilemma mellem at håndhæve reglerne og vise tillid. Samtidig rejser det spørgsmål om, hvordan vi definerer snyd og hjælpemidler i en verden, hvor generativ AI er blevet en del af alles hverdag. For at navigere i disse dilemmaer er der brug for klare retningslinjer for, hvordan vi anvender teknologien på en etisk og ansvarlig måde i undervisningen. Her mener jeg, at det er afgørende, at man som ledelse på uddannelsesinstitutionerne er klar til at understøtte underviserne i denne overgangsperiode. Når lærerne føler sig magtesløse og udfordrede af generativ AI, har de brug for opbakning, klare retningslinjer og plads til selv at udvikle og eksperimentere med nye undervisningsformer.

Men selvom integrationen af generativ AI i undervisningen kan virke overvældende, er vi som undervisere og elever ikke magtesløse ofre for teknologien. Tværtimod har vi mulighed for aktivt at forme udviklingen og udnytte AI’s potentiale til at skabe nye og spændende læringsoplevelser. Det kræver, at vi tør tænke nyt og tilpasse vores didaktik og pædagogik til de nye vilkår. Hvordan kan vi bruge AI som et redskab til at stimulere elevernes kreativitet, kritiske tænkning og problemløsningsevner? Hvordan kan vi designe undervisningsforløb, der inddrager AI på en etisk og meningsfuld måde? Ved proaktivt at udforske disse spørgsmål kan vi være med til at præge udviklingen i en retning, der gavner vores elever og styrker deres kompetencer til en fremtid med AI.

Endelig handler det om at opbygge de nødvendige kompetencer hos både undervisere og elever. Vi har brug for efteruddannelse i at forstå og anvende AI på en etisk og pædagogisk forsvarlig måde. Det gælder ikke kun de tekniske færdigheder, men også evnen til at reflektere kritisk over teknologiens rolle i vores fag og i samfundet som helhed. Dermed kan AI også være med til at åbne for nye former for læring, hvor eleverne i højere grad bliver autonome, selvstændige og kreative. Hvor det handler mindre om at reproducere viden og mere om at anvende den på nye måder. Ved at se AI som en mulighed for at gentænke vores pædagogiske praksis kan vi måske være med til at skabe en undervisning, der ikke bare forbereder eleverne på en fremtid med AI, men også giver dem redskaberne til aktivt at forme den.

Følelser af kontroltab og magtesløshed er en naturlig reaktion på den forstyrrelse, AI medfører. I næste artikel vender jeg blikket mod en anden konsekvens – hvordan teknologien ændrer underviser-elev-relationen.

Kilder

Bandura, A. (2013). Self-efficacy. Kognition Og Pædagogik, 22(83).

Fleckenstein, J., Meyer, J., Jansen, T., Keller, S. D., Köller, O., & Möller, J. (2024). Do teachers spot AI? Evaluating the detectability of AI-generated texts among student essays. Computers and Education: Artificial Intelligence, 6(100209), 100209.

Friisberg, K. (2023, May 5). 7 ting du skal vide om AI i skolen. SDU. https://www.sdu.dk/da/nyheder/7-ting-du-skal-vide-om-ai-i-skolen

Grose, J. (2024, August 14). What Teachers Told Me About A.I. in School. The New York Times. https://www.nytimes.com/2024/08/14/opinion/ai-schools-teachers-students.html?unlocked_article_code=1

Rafferty, A. (2023, February 13). How will the use of AI in education impact the roles of teachers? The Learning Counsel. https://thelearningcounsel.com/articles/how-will-the-use-of-ai-in-education-impact-the-roles-of-teachers/