Ugens nyheder: Når chatbotten lyver for dine elever
Nye rapporter afslører, at skolebørn helt ned til 6 år har fri adgang til hallucinerende AI, mens norske lærere advarer om et eksamenssystem i kollaps. Læs om konsekvenserne og de pædagogiske løsninger her.
Hermed denne uges nyhedsbrev om kunstig intelligens i undervisningen. Fokus er i denne uge på sprogmodeller, der hallucinerer.
I Norge skriver lektor Jørgen Ulvan Moe i et debatindlæg om, hvordan sprogmodeller er designet til at lyde overbevisende og ikke til at tale sandt. Det er derfor vigtigt, at vi inddrager AI som en del af undervisningen. Ellers er eleverne overladt til sig selv.
Et andet nyt tiltag er AI Arenaen, som er et samarbejde mellem Danish Foundation Models, Digitaliseringsstyrelsen og det franske kulturministerium. Her kan elever teste modeller op mod hinanden, undersøge sprogmodellerne og samtidig diskutere miljøpåvirkningen.
I ugens kommentar skriver jeg om, hvorfor vi skal lære at behandle ethvert svar fra AI som en hypotese, der skal falsificeres, og hvorfor et svar, der er 95 % korrekt, måske er farligere end et, der er helt forkert.
Her er ugens tre centrale pointer
Fejl er en funktion, ikke en fejl Vi skal stoppe med at vente på den "fejlfri" AI. Hallucinationer er en indbygget del af teknologien, og derfor skal undervisningen fokusere på kritisk sans frem for blind tillid.
Ukontrolleret udrulning vækker bekymring DataEthics slår alarm over, at helt unge skoleelever har adgang til chatbots uden aldersverifikation.
Løsningerne kommer nedefra Nye bøger og værktøjer som AI Arenaen viser, hvordan man kan arbejde kritisk med AI i undervisningen.
God læselyst med nyhedsbrevet.
AI-hallucinationer er kommet for at blive, og det er et undervisningsproblem
Jørgen Ulvan Moe, lektor i Vestfold Fylkeskommune, skriver i det norske Utdanningsnytt om et fundamentalt problem ved AI i uddannelse. Hallucinationer er ikke en midlertidig fejl men en permanent del af teknologien. Det virkelige problem er ikke de forkerte svar i sig selv, men det er, at alt for få både elever og lærere forstår, hvor systematisk problemet er.
Store sprogmodeller som ChatGPT er trænet til at producere sandsynlig tekst og ikke sandfærdig information. De genererer svar, der ligner fakta, uden at have nogen reel forståelse af, om indholdet faktisk er korrekt.
Derfor mener Jørgen Ulvan Moe at elever bør aldrig overlades alene med AI som informationskilde. I stedet bør vi behandle AI-output som et muligt udgangspunkt for videre undersøgelse og aldrig som endegyldig viden.
Flere forskere bakker op om behovet for kritisk AI-literacy. Mens metaanalyser viser små til moderate læringseffekter ved chatbot-brug, er forventningerne ofte urealistisk høje. Vi skal fokusere mindre på effektivitet og mere på kritisk og ansvarlig anvendelse.
Anne Grønlie, lektor ved Drammen videregående skole, kritiserer kraftigt de norske myndigheders manglende handling omkring AI og eksamen. I tre år har lærerne advaret, men der findes stadig ingen løsninger, der kan forhindre elever i at snyde med AI - hverken til skriftlige eller mundtlige prøver.
Problemet er enkelt, for eleverne har deres egne computere med til eksamen, og eksamensvagterne kan ikke opdage, om de bruger AI. Eleverne kan derfor nemt få AI til at forberede svar hjemmefra og tage dem med til prøven.
Situationen presser eleverne til at bruge AI for at følge med karaktermæssigt. Grønlie beskriver, hvordan skolen er blevet fuldstændig overvældet af teknologien. Da regeringen blev konfronteret med kritikken, svarede statssekretær Sindre Lysø vagt og henviste til irrelevante tiltag som mobilforbud i timerne.
Uddannelsesdirektoratet (Udir) møder også hård kritik. Kritikken handler både om tidligere fejlslagne eksamensopgaver, hvor elever eksempelvis blev bedt om at analysere digte skrevet af ansatte i direktoratet, og for generelt at være usynlige og handlingslammede i mødet med AI.
DataEthics advarer: AI-chatbots i folkeskolen er indført uden kontrol
På tænketanken DataEthics skriver Mie Oehlenschlager og Pernille Tranberg om hvordan Google Gemini nu er tilgængelig for børn helt ned til seks år via skolernes Chromebooks. Denne udbredelse er ifølge DataEthics sket uden offentlig debat, pædagogisk stillingtagen eller politisk regulering.
Forfatterne rejser særlig bekymring for, hvordan AI overtager centrale dele af elevernes læring, såsom idéudvikling, feedback og tekstproduktion, hvilket kan svække elevernes motivation og evne til at udvikle selvstændige skrive- og tænkeevner.
Mie Oehlenschlager og Pernille Tranberg kritiserer desuden, at mens Danmark arbejder på at indføre aldersverifikation på sociale medier, er AI-chatbots som Gemini ikke omfattet af lignende beskyttelse – trods deres potentielt lige så gennemgribende indflydelse.
Forfatterne understreger, at det ikke handler om at være imod teknologi, men om at sikre, at børn ikke bliver forsøgsobjekter i en pædagogisk og teknologisk udvikling, vi endnu ikke forstår konsekvenserne af.
I et debatindlæg i Politiken kritiserer Kaare Nielsen den nuværende danske uddannelsespolitik for at være styret af kortsigtet ideologi og en manglende forståelse for fremtidens behov. Han understreger, at Danmark som videnssamfund bør investere massivt i uddannelse, forskning og nye teknologier som kunstig intelligens for at sikre både velfærd, velstand og uafhængighed i en globaliseret verden.
Kaare Nielsen fremhæver, at andre lande, især Kina, satser strategisk på innovation og avanceret teknologi, herunder kunstig intelligens, hvilket giver dem et betydeligt forspring. I Danmark ser vi derimod et reduceret optag på universiteterne, færre specialister og forkortede uddannelser, hvilket ifølge ham strider mod behovene i både nutiden og fremtiden.
I stedet opfordrer han til en ny national vision for uddannelse, som forener stærke faglige miljøer med brede og inkluderende uddannelsesmuligheder, og som samtidig tager teknologiske forandringer som kunstig intelligens alvorligt.
Gymnasielærer Lars Due Arnov og folkeskolelærer Esben Bækkelund Jensen har udgivet bogen AI i historie – Praksis og øvelser, som giver historielærere konkrete redskaber til at integrere AI i undervisningen. Bogen er deres svar på lærernes efterspørgsel efter praktisk vejledning og didaktisk støtte.
AI er allerede en del af mange elevers hverdag, men brugen er ofte ubevidst og ukritisk. Derfor bør historieundervisningen både udforske AI som læringsredskab og som genstand for kritisk analyse. Det er en naturlig kobling i et fag, hvor kildekritik spiller en central rolle.
Lars Due Arnov understreger, at eleverne skal forstå, hvordan AI genererer sine svar, og de skal lære at undersøge og udfordre chatbotternes output på en kritisk måde.
Det første kapitel af bogen samt fire øvelser er frit tilgængelige på bogens hjemmeside. Kræver gratis login.
AI Arenaen skal styrke elevers kritiske blik på AI
AI Arenaen er et gratis værktøj, udviklet i et samarbejde mellem Danish Foundation Models, Digitaliseringsstyrelsen og det franske kulturministerium.
Formålet er at give brugerne mulighed for at teste og sammenligne svar fra forskellige AI-modeller uden at vide, hvilke modeller der svarer. På den måde kan brugerne øve deres kritiske tænkning, opdage forskelle i kvalitet og relevans og lære, hvordan forskellige AI-modeller håndterer de samme spørgsmål.
Arenaen fungerer samtidig som et læringsmiljø, hvor brugerne får indsigt i miljøpåvirkningen af deres forespørgsler og bliver bevidste om generativ AI i praksis.
Platformen kan bruges som et pædagogisk redskab i undervisningen, hvor lærere kan introducere elever og studerende til, hvordan AI fungerer og hvordan man vurderer og sammenligner forskellige svar.
Ugens kommentar: AI-svaret er en hypotese, ikke et facit
Sidste uges nyhedsbillede var paradoksalt.
På den ene side har vi sprogmodeller med indbyggede hallucinationer. De lyver ikke med vilje, men de udtaler sig usandt med så stor selvsikkerhed, at selv eksperter kan komme i tvivl. På den anden side kunne vi læse, at børn helt ned til 6 år har adgang til disse "hallucinerende maskiner" via deres skolecomputere, helt uden at vi har haft en debat om det.
Når vi er ude at holde oplæg om AI, taler vi ofte om, hvordan man sikrer, at et svar fra AI rent faktisk er et godt svar. Det kræver nemlig både stor faglig viden og skarp kildekritik at vurdere kvaliteten.
Claus plejer at sige, at vi bør lære at se ethvert svar, uanset hvor autoritativt det virker, som en hypotese, der skal testes og forsøges falsificeret, snarere end en etableret sandhed.
Hvis vi tilgår teknologien på den måde, vender vi dens største svaghed, hallucinationerne, til en pædagogisk styrke. For så bliver opgaven ikke at få svaret fra AI’en, men at bruge sin faglighed til at efterprøve det. Det er her, den virkelige læring ligger.
Men her lurer en anden fare. Som lingvisten Emily Bender skriver, er et system, der har ret 95 % af tiden, måske farligere end et, der kun rammer plet 50 % af tiden.
Når teknologien er så præcis, stoler vi nemlig blindt på outputtet, og vi glemmer at tjekke de sidste 5 %, hvor fejlene gemmer sig. Og selv hvis svaret fra chatbotten er korrekt, mister vi noget væsentligt undervejs. Nemlig muligheden for at opbygge den informationskompetence, der opstår, når man selv søger, vurderer og sammenholder viden.
Netop den udfordring har Claus undersøgt nærmere i en artikel om de nye AI-søgemaskiner, som du kan læse her: