Matomo

spring til indhold

Ugens nyheder: Når chatbotten lyver for dine elever

Nye rapporter afslører, at skolebørn helt ned til 6 år har fri adgang til hallucinerende AI, mens norske lærere advarer om et eksamenssystem i kollaps. Læs om konsekvenserne og de pædagogiske løsninger her.

· 8 minut læses

Indholdsfortegnelse

Hermed denne uges nyhedsbrev om kunstig intelligens i undervisningen. Fokus er i denne uge på sprogmodeller, der hallucinerer.

I Norge skriver lektor Jørgen Ulvan Moe i et debatindlæg om, hvordan sprogmodeller er designet til at lyde overbevisende og ikke til at tale sandt. Det er derfor vigtigt, at vi inddrager AI som en del af undervisningen. Ellers er eleverne overladt til sig selv.

Samtidig skriver Anne Grønlie om, hvordan det norske Uddannelsesdirektorat har forsøgt at håndtere snyd ved eksamener. Blandt andet har de fået ansatte i direktoratet til at skrive digte, som eleverne efterfølgende skulle analysere. Hun advarer om, at eksamenssystemet er ved at kollapse, fordi myndighederne er handlingslammede.

Herhjemme lyder der også advarsler. DataEthics skriver i en ny artikel, at flere af folkeskolernes Chromebooks giver elever helt ned til 6 år adgang til chatbots uden kontrol. Kaare Nielsen peger i Politiken på, at vi mangler en langsigtet strategi for, hvad vi vil som videnssamfund.

Der er heldigvis også konkrete løsninger.

Et godt eksempel er en ny, praktisk bog fra Systime om AI i historieundervisningen. Den viser, hvordan man kan arbejde med kildekritik i en tid, hvor AI hallucinerer.

Et andet nyt tiltag er AI Arenaen, som er et samarbejde mellem Danish Foundation Models, Digitaliseringsstyrelsen og det franske kulturministerium. Her kan elever teste modeller op mod hinanden, undersøge sprogmodellerne og samtidig diskutere miljøpåvirkningen.

I ugens kommentar skriver jeg om, hvorfor vi skal lære at behandle ethvert svar fra AI som en hypotese, der skal falsificeres, og hvorfor et svar, der er 95 % korrekt, måske er farligere end et, der er helt forkert.

Her er ugens tre centrale pointer

  • Fejl er en funktion, ikke en fejl
    Vi skal stoppe med at vente på den "fejlfri" AI. Hallucinationer er en indbygget del af teknologien, og derfor skal undervisningen fokusere på kritisk sans frem for blind tillid.
  • Ukontrolleret udrulning vækker bekymring
    DataEthics slår alarm over, at helt unge skoleelever har adgang til chatbots uden aldersverifikation.
  • Løsningerne kommer nedefra
    Nye bøger og værktøjer som AI Arenaen viser, hvordan man kan arbejde kritisk med AI i undervisningen.

God læselyst med nyhedsbrevet.


AI-hallucinationer er kommet for at blive, og det er et undervisningsproblem

Jørgen Ulvan Moe, lektor i Vestfold Fylkeskommune, skriver i det norske Utdanningsnytt om et fundamentalt problem ved AI i uddannelse. Hallucinationer er ikke en midlertidig fejl men en permanent del af teknologien. Det virkelige problem er ikke de forkerte svar i sig selv, men det er, at alt for få både elever og lærere forstår, hvor systematisk problemet er.

Store sprogmodeller som ChatGPT er trænet til at producere sandsynlig tekst og ikke sandfærdig information. De genererer svar, der ligner fakta, uden at have nogen reel forståelse af, om indholdet faktisk er korrekt.

Derfor mener Jørgen Ulvan Moe at elever bør aldrig overlades alene med AI som informationskilde. I stedet bør vi behandle AI-output som et muligt udgangspunkt for videre undersøgelse og aldrig som endegyldig viden.

Flere forskere bakker op om behovet for kritisk AI-literacy. Mens metaanalyser viser små til moderate læringseffekter ved chatbot-brug, er forventningerne ofte urealistisk høje. Vi skal fokusere mindre på effektivitet og mere på kritisk og ansvarlig anvendelse.

KI-hallusinasjoner har kommet for å bli – det gjør chatboter utfordrende å bruke i opplæring
Debatt: Chatboter hallusinerer. Problemet er ikke bare at KI-verktøy gir feil svar, men at altfor få forstår hvor ofte det skjer.

AI truer norske eksamener

Anne Grønlie, lektor ved Drammen videregående skole, kritiserer kraftigt de norske myndigheders manglende handling omkring AI og eksamen. I tre år har lærerne advaret, men der findes stadig ingen løsninger, der kan forhindre elever i at snyde med AI - hverken til skriftlige eller mundtlige prøver.

Problemet er enkelt, for eleverne har deres egne computere med til eksamen, og eksamensvagterne kan ikke opdage, om de bruger AI. Eleverne kan derfor nemt få AI til at forberede svar hjemmefra og tage dem med til prøven.

Situationen presser eleverne til at bruge AI for at følge med karaktermæssigt. Grønlie beskriver, hvordan skolen er blevet fuldstændig overvældet af teknologien. Da regeringen blev konfronteret med kritikken, svarede statssekretær Sindre Lysø vagt og henviste til irrelevante tiltag som mobilforbud i timerne.

Uddannelsesdirektoratet (Udir) møder også hård kritik. Kritikken handler både om tidligere fejlslagne eksamensopgaver, hvor elever eksempelvis blev bedt om at analysere digte skrevet af ansatte i direktoratet, og for generelt at være usynlige og handlingslammede i mødet med AI.

Fullstendig overmannet av KI: – Håpløst
Kunnskapsminister Kari Nessa Nordtun (Ap) er overmannet av kunstig intelligens, og bør snarest vurdere å bruke KI for å legge ned Utdanningsdirektoratet.

DataEthics advarer: AI-chatbots i folkeskolen er indført uden kontrol

På tænketanken DataEthics skriver Mie Oehlenschlager og Pernille Tranberg om hvordan Google Gemini nu er tilgængelig for børn helt ned til seks år via skolernes Chromebooks. Denne udbredelse er ifølge DataEthics sket uden offentlig debat, pædagogisk stillingtagen eller politisk regulering.

Forfatterne rejser særlig bekymring for, hvordan AI overtager centrale dele af elevernes læring, såsom idéudvikling, feedback og tekstproduktion, hvilket kan svække elevernes motivation og evne til at udvikle selvstændige skrive- og tænkeevner.

Mie Oehlenschlager og Pernille Tranberg kritiserer desuden, at mens Danmark arbejder på at indføre aldersverifikation på sociale medier, er AI-chatbots som Gemini ikke omfattet af lignende beskyttelse – trods deres potentielt lige så gennemgribende indflydelse.

Forfatterne understreger, at det ikke handler om at være imod teknologi, men om at sikre, at børn ikke bliver forsøgsobjekter i en pædagogisk og teknologisk udvikling, vi endnu ikke forstår konsekvenserne af.

Opråb: Danske folkeskoler skal ikke have chatbots på computeren · Dataetisk Tænkehandletank
Chatbots og sprogmodeller ser ud til at være blevet indført i skolerne som standardindstilling for…

Danmark risikerer at miste sin vidensposition

I et debatindlæg i Politiken kritiserer Kaare Nielsen den nuværende danske uddannelsespolitik for at være styret af kortsigtet ideologi og en manglende forståelse for fremtidens behov. Han understreger, at Danmark som videnssamfund bør investere massivt i uddannelse, forskning og nye teknologier som kunstig intelligens for at sikre både velfærd, velstand og uafhængighed i en globaliseret verden.

Kaare Nielsen fremhæver, at andre lande, især Kina, satser strategisk på innovation og avanceret teknologi, herunder kunstig intelligens, hvilket giver dem et betydeligt forspring. I Danmark ser vi derimod et reduceret optag på universiteterne, færre specialister og forkortede uddannelser, hvilket ifølge ham strider mod behovene i både nutiden og fremtiden.

I stedet opfordrer han til en ny national vision for uddannelse, som forener stærke faglige miljøer med brede og inkluderende uddannelsesmuligheder, og som samtidig tager teknologiske forandringer som kunstig intelligens alvorligt.

Dum, dummere, dansk uddannelsespolitik
Debatindlæg | Læs Politikens mange forskellige debatindlæg. Det enkelte indlæg er udtryk for skribentens holdning. Du kan også få bragt dit debatindlæg.

Praktisk guide til AI i historie

Gymnasielærer Lars Due Arnov og folkeskolelærer Esben Bækkelund Jensen har udgivet bogen AI i historie – Praksis og øvelser, som giver historielærere konkrete redskaber til at integrere AI i undervisningen. Bogen er deres svar på lærernes efterspørgsel efter praktisk vejledning og didaktisk støtte.

AI er allerede en del af mange elevers hverdag, men brugen er ofte ubevidst og ukritisk. Derfor bør historieundervisningen både udforske AI som læringsredskab og som genstand for kritisk analyse. Det er en naturlig kobling i et fag, hvor kildekritik spiller en central rolle.

Lars Due Arnov understreger, at eleverne skal forstå, hvordan AI genererer sine svar, og de skal lære at undersøge og udfordre chatbotternes output på en kritisk måde.

Det første kapitel af bogen samt fire øvelser er frit tilgængelige på bogens hjemmeside. Kræver gratis login.

Lærere skriver bog med konkrete AI-opgaver i historie: Og råd til hvor ofte eleverne må bruge computeren
Lærerne vil gerne inddrage kunstig intelligens i undervisningen, men efterspørger konkrete opgaver. Så dem er to lærere på vej med i ny bog.

AI Arenaen skal styrke elevers kritiske blik på AI

AI Arenaen er et gratis værktøj, udviklet i et samarbejde mellem Danish Foundation Models, Digitaliseringsstyrelsen og det franske kulturministerium.

Formålet er at give brugerne mulighed for at teste og sammenligne svar fra forskellige AI-modeller uden at vide, hvilke modeller der svarer. På den måde kan brugerne øve deres kritiske tænkning, opdage forskelle i kvalitet og relevans og lære, hvordan forskellige AI-modeller håndterer de samme spørgsmål.

Arenaen fungerer samtidig som et læringsmiljø, hvor brugerne får indsigt i miljøpåvirkningen af deres forespørgsler og bliver bevidste om generativ AI i praksis.

Platformen kan bruges som et pædagogisk redskab i undervisningen, hvor lærere kan introducere elever og studerende til, hvordan AI fungerer og hvordan man vurderer og sammenligner forskellige svar.

Prøv AI Arenaen her:

Arenaen - compar:IA, arenaen for AI-chatbots
compar:IA er et værktøj, der gør det muligt at sammenligne forskellige samtale-AI-modeller blindt, øge bevidstheden om problemerne omkring generativ AI (pluralitet, bias, miljøpåvirkning) og hjælpe med at opbygge datasæt for sprogpræferencer for sprog med færre ressourcer.

Ugens kommentar: AI-svaret er en hypotese, ikke et facit

Sidste uges nyhedsbillede var paradoksalt.

På den ene side har vi sprogmodeller med indbyggede hallucinationer. De lyver ikke med vilje, men de udtaler sig usandt med så stor selvsikkerhed, at selv eksperter kan komme i tvivl. På den anden side kunne vi læse, at børn helt ned til 6 år har adgang til disse "hallucinerende maskiner" via deres skolecomputere, helt uden at vi har haft en debat om det.

Når vi er ude at holde oplæg om AI, taler vi ofte om, hvordan man sikrer, at et svar fra AI rent faktisk er et godt svar. Det kræver nemlig både stor faglig viden og skarp kildekritik at vurdere kvaliteten.

Claus plejer at sige, at vi bør lære at se ethvert svar, uanset hvor autoritativt det virker, som en hypotese, der skal testes og forsøges falsificeret, snarere end en etableret sandhed.

Hvis vi tilgår teknologien på den måde, vender vi dens største svaghed, hallucinationerne, til en pædagogisk styrke. For så bliver opgaven ikke at få svaret fra AI’en, men at bruge sin faglighed til at efterprøve det. Det er her, den virkelige læring ligger.

Men her lurer en anden fare. Som lingvisten Emily Bender skriver, er et system, der har ret 95 % af tiden, måske farligere end et, der kun rammer plet 50 % af tiden.

Når teknologien er så præcis, stoler vi nemlig blindt på outputtet, og vi glemmer at tjekke de sidste 5 %, hvor fejlene gemmer sig. Og selv hvis svaret fra chatbotten er korrekt, mister vi noget væsentligt undervejs. Nemlig muligheden for at opbygge den informationskompetence, der opstår, når man selv søger, vurderer og sammenholder viden.

Netop den udfordring har Claus undersøgt nærmere i en artikel om de nye AI-søgemaskiner, som du kan læse her:

En ny informationsalder: AI-søgemaskiner
AI-søgemaskiner er blevet en del af hverdagen for danske elever, men er det en bekymrende udvikling? En ny undersøgelse viser, at 85 % af de studerende bruger ChatGPT til at søge information. Det kræver nye kompetencer at navigere i denne digitale virkelighed.