
Ugens nyheder: Teknologiforståelse, billedmanipulation og prædiktiv AI
Fra gymnasierektorers opfordring til obligatorisk teknologiforståelse til kritiske perspektiver på AI-billedmanipulation og prædiktive algoritmer. Få indblik i den nyeste udvikling inden for kunstig intelligens i uddannelsessektoren.
Indholdsfortegnelse
Hermed får du ugens nyhedsbrev om kunstig intelligens i undervisningen.
Vi er i fuld gang med at ommøblere lidt på Viden.AI for at gøre indholdet mere tilgængeligt. Lige nu synes vi, at der er langt ned til nogle af de temaer, vi mener fortjener lidt mere opmærksomhed, som fx bæredygtighed, etik og faglig sorg. Samtidig vil vi også gerne gøre siden mere levende og kommer derfor til at introducere en nyhedssektion, hvor vi løbende lægger nyheder om AI i undervisningen. Men bare rolig - vi beholder vores nyhedsbrev som en fast, ugentlig opsummering af, hvad der er sket.
Eftersom der har været påskeferie, har der ikke været skrevet meget om kunstig intelligens i undervisningen i dansk kontekst. Derfor retter vi i dette nyhedsbrev blikket mod USA for at få et mere globalt perspektiv på strømninger, vi måske også vil se i Danmark.
Men inden vi kommer så langt, har vi tre henvisninger fra vores egen verden:
- Rektor Martin Ingemann fra Egaa Gymnasium opfordrer til et opgør med forældede eksamensformer og efterlyser teknologiforståelse som obligatorisk fag.
- Et nyt værktøj i ChatGPT gør det muligt for alle at generere virkelighedstro billeder, men forskere advarer om, at det kan undergrave vores virkelighedsforståelse og demokratiske tillid.
- Ny forskning og økonomiske analyser viser, at AI’s betydning for produktivitet og arbejdsmarkedet er mindre end forventet.
Mens vi venter på Styrelsen for IT og Lærings (STIL) kommende vejledning om brugen af generativ AI i undervisningen, vender vi blikket mod Norge.
- Odin Hetland Nøsen reflekterer i et længere blogindlæg over, om der er tale om en personoplysning, hvis modtageren ikke ved, hvem den vedrører.
Mens vi fra Norge har fået nogle værdifulde juridiske perspektiver på AI og persondata, kommer der også relevant inspiration fra erhvervslivet.
- En ny bog omhandler, hvordan man implementerer AI-projekter med reel effekt. Vi dykker kort ned i den og fremhæver et kapitel, som vi synes er interessant for uddannelsessektoren.
I USA ser vi en række udfordringer, som vi nok allerede ser udfolde sig i Danmark, og derfor er det relevant at følge med i.
- Studerende bruger AI til at undgå læring, men er problemet i virkeligheden ikke en opmærksomhedskrise skabt af sociale medier?
- Mange undervisere har også taget AI til sig for at spare tid og effektivisere arbejdet, men er samtidig bekymrede over elevernes brug af samme teknologi.
- Noget af det, som AI-forordningen håndterer i Europa, er regler omkring prædiktiv AI. På amerikanske universiteter viser det sig, at AI i stigende grad bliver brugt til at forudsige, hvilke studerende der vil gennemføre deres uddannelse.
Derudover har vi ugens andre nyheder.
I dag glæder vi os til at deltage i LEX-konferencen om troværdig viden i AI-tidsalderen. Læs mere herunder, og tilmeld dig for at få adgang til videostream fra konferencen. Det er kl. 15.00-17:30.
En af de ting, de helt sikkert vil tale om, er det nye samarbejde, hvor Lex går sammen med Aarhus Universitet om at udvikle en dansk chatbot, som giver brugerne mulighed for at gå i dialog med Lex’ indhold – uden at afgive personlige oplysninger.


God læselyst med nyhedsbrevet.
Teknologiforståelse skal være en grundpille i undervisningen
Rektor Martin Ingemann fra Egaa Gymnasium kritiserer i et debatindlæg i Uddannelsesmonitor den nuværende retning i den danske uddannelsespolitik, som han mener ignorerer de grundlæggende forandringer i samfundet, drevet af digital teknologi og AI. Han peger på, at mens resten af verden diskuterer avanceret teknologi og digitale værktøjer, fokuserer Danmark stadig på mere traditionelle emner som litteraturkanon og eksamensformer, der ikke afspejler virkeligheden.
Han opfordrer til, at man stiller de rette spørgsmål til AI og teknologien – ikke hvordan man beskytter sig imod den, men hvordan den ændrer vores forståelse af faglighed, viden og læring. Han argumenterer for, at uddannelsessystemet skal være en aktiv del af samfundets teknologiske udvikling og forberede unge på en virkelighed, der er i hastig forandring.
Læs hele debatindlægget her:
Manipulerede AI-billeder forvrænger virkeligheden og truer demokratisk tillid
Politiken har i en artikel afdækket, hvordan OpenAI’s frit tilgængelige billedgenerator i ChatGPT på rekordtid har gjort det muligt for millioner af brugere at skabe manipulerede billeder. På blot en uge blev der genereret 700 millioner billeder. Selvom mange bruger funktionen til underholdning og kreativ leg, advarer forskere og eksperter om alvorlige konsekvenser for vores forståelse af virkelighed og demokrati. Eksperter som Gry Hasselbalch og Yevgeniy Golovchenko peger på, at den lette adgang til AI-værktøjer udvisker grænsen mellem sandhed og fiktion – hvilket kan underminere tillid, sprede misinformation og skade den demokratiske dialog.
Problemet ligger ikke kun i teknologien, men i den massive tilgængelighed. Manipulerede billeder og videoer kan bruges til at undergrave enkeltpersoners troværdighed, skabe mistillid og fremme desinformation. Ifølge it-sikkerhedsekspert Keld Norman er det i dag nemt for alle, også kriminelle, at fabrikere overbevisende billedfalsknerier. OpenAI har forsikret, at der er indbyggede sikkerhedsforanstaltninger, men kritikere mener, at værktøjet allerede har fjernet væsentlige filtre og kontrolmekanismer.
Professor Morten Mørup fra DTU fremhæver, at vi risikerer at miste en fælles virkelighedsforståelse, fordi AI-manipulation i stor skala gør det vanskeligt at skelne sandt fra falsk. Dette er især problematisk i en medievirkelighed, hvor algoritmisk kurateret information forstærker filterbobler. Eksperterne understreger, at kildekritik og etiske overvejelser nu er vigtigere end nogensinde, og at det bør være en fast praksis at deklarere AI-skabt materiale – især når det involverer virkelige personer.
AI vil ikke revolutionere arbejdsmarkedet
I Berlingske stiller flere fremtrædende økonomer spørgsmålstegn ved de høje forventninger til AI’s betydning for arbejdsmarkedet og produktivitetsvæksten.
Professor Jesper Rangvid fra CBS forholder sig skeptisk til de store løfter, der ofte knyttes til AI, og sammenligner den nuværende hype med forventningerne til internettet under dotcom-boblen i 1990’erne. Han peger på, at tidligere teknologiske gennembrud – som f.eks. computere og internettet – ikke har medført målbare spring i produktiviteten, og at et lignende mønster kan gentage sig med AI.
Danske Banks cheføkonom, Las Olsen, understreger samtidig, at produktivitetsforbedringer er svære at måle i sektorer, hvor der ikke produceres fysiske varer.
Professor i økonomi ved Aarhus Universitet, Philipp Schröder, understøtter dette synspunkt og mener, at det er vigtigt at skelne mellem kortsigtede og langsigtede effekter. Når teknologien først er implementeret, vil produktivitetsudviklingen vende tilbage til sit oprindelige niveau. Han fremhæver dog, at AI kan bidrage til øget effektivitet i sektorer som advokatbranchen og undervisningsområdet, hvor det tidligere har været vanskeligt at opnå produktivitetsforbedringer.
Også Natasha Friis Saxberg fra IT-Branchen påpeger, at AI stadig er en ung teknologi, og at dens langsigtede potentiale kan blive undervurderet – selvom den på kort sigt ikke lever op til forventningerne.

Bag betalingsmur
Relativ anonymisering kan gøre brugen af AI i skolen både lovlig og praktisk forsvarlig
I et længere debatindlæg argumenterer Odin Hetland Nøsen, skolekonsulent ved Randbergskolen, for, at opfattelsen af, hvornår noget udgør en personoplysning, ofte er alt for absolut – især i sammenhæng med AI og uddannelse.
Med afsæt i både egne eksempler og nyere EU-domme viser han, at en oplysning først udgør en personoplysning, når den kan knyttes til en identificerbar fysisk person – og at dette altid afhænger af konteksten. Når en modtager, f.eks. OpenAI via et API, ikke har adgang til identifikationsdata eller kontekst, vil oplysningerne i praksis være anonymiserede for denne tredjepart.
Selvom EU-domstolens praksis klart peger i retning af relativ anonymisering, hersker der stadig en vis juridisk usikkerhed på området. Institutioner bør derfor fortsat vurdere hver enkelt situation konkret.

Ny bog: Gunstig intelligens
I en ny bog af Carsten Lund Pedersen og Thomas Ritter er der fokus på, hvordan AI-projekter kan implementeres på en velovervejet måde, så de gavner organisationen. Bogen præsenterer en række modeller, der giver en struktureret og overskuelig vejledning i implementering af AI-projekter, så de skaber reel forretningsværdi. Den indeholder også overvejelser om, hvornår et AI-projekt bør opgives.
Vi har fået bogen til gennemsyn, og den henvender sig primært til ledere, it-specialister og konsulenter i erhvervslivet.
Selvom bogen primært henvender sig til erhvervslivet, har vi valgt at omtale den her. Det skyldes, at bogen præsenterer en række modeller, hvoraf mange kan overføres til uddannelsesområdet i forbindelse med strategisk implementering af AI i skoler.
I bogen præsenteres en praktisk model til at identificere og håndtere gnidninger i forbindelse med AI-implementeringer i organisationer. Modellen introducerer et “gnidningsindeks”, der måler, hvor enige medarbejderne er om ambitionsniveauet for AI-projekter.
Konkret kan skoler anvende modellens enkle 5-punktsskala, hvor medarbejdere kan tilkendegive, om de synes, skolens AI-ambitionsniveau er “Alt for lavt”, “Lidt for lavt”, “OK”, “Lidt for højt” eller “Alt for højt”. I en skolekontekst kan dette eksempelvis bruges til at undersøge, om lærerne mener, at skolens planer for implementering af AI-værktøjer i undervisningen er for ambitiøse – eller omvendt ikke ambitiøse nok.
Bogens gnidningsindeks kan hjælpe skoleledere med at afdække, hvor der er konsensus, og hvor der hersker uenighed blandt lærerne. Hvis halvdelen af lærerne eksempelvis mener, at skolen bør implementere AI-værktøjer hurtigere, mens den anden halvdel er bekymret for tempoet, opstår der et “dilemma”, som bogen beskriver det – en situation, hvor det, uanset beslutning, vil være svært at opnå fuld opbakning.
Det centrale budskab er, at gnidninger er uundgåelige ved AI-implementeringer, men kan håndteres konstruktivt gennem åben dialog og beslutningsprocesser, der fokuserer på værdiskabelse frem for drænende konflikter. Ved at erkende, diskutere og på passende tidspunkter afslutte gnidningerne, kan skolen skabe en bedre implementeringsproces.


AI bruges til at undgå læring – men problemet er dybere end som så
I Time Magazine beskriver Catherine Goetze, hvordan studerendes brug af AI ikke blot handler om dovenskab eller snyderi, men snarere et symptom på en større krise, nemlig at vores kollektive opmærksomhed er under pres.
Her skriver hun, at selv flittige og ambitiøse studerende føler sig mentalt udmattede og fristet til at bruge AI, fordi det kognitivt krævende arbejde virker uoverskueligt. Ifølge Catherine Goetze er årsagen ikke AI i sig selv, men den vedvarende påvirkning fra sociale medier, som har vænnet unge til øjeblikkelig belønning og svækket evnen til at fordybe sig.
Når AI bruges som genvej, udelades centrale læringsprocesser, hvilket går ud over evnen til at strukturere tanker, opbygge argumenter og tackle svære opgaver. Det skaber ikke kun faglig svækkelse, men også en følelse af mindreværd.
Men der er også mange studerende, der rent faktisk bruger AI konstruktivt, f.eks. til at stille nysgerrige spørgsmål, få forklaret svære emner eller skabe egne projekter. Her bliver AI en måde at fordybe sig i emner, som ikke altid dækkes af pensum.
Hun argumenterer for, at løsningen ikke er at forbyde AI i skolen, men at hjælpe eleverne med at genopbygge deres evne til fordybelse og indre motivation. Her bør lærere møde elevernes nysgerrighed med åbne svar og bruge AI som en fælles undersøgelsesplatform – ikke som et overvågningsredskab til kontrol.
Hun afslutter med at pege på behovet for at stille techgiganter til ansvar for den måde, deres platforme har fragmenteret unges opmærksomhed og skabt de betingelser, AI nu kritiseres for at forværre.

Lærere bruger AI flittigt – men er skeptiske over for, at eleverne gør det samme.
The New York Times skriver, hvordan mange lærere i stigende grad anvender generativ AI i deres arbejde – samtidig med at de forsøger at begrænse elevernes brug af samme teknologi. Lærere bruger AI til at planlægge undervisning, rette opgaver og analysere elevdata, hvilket sparer tid og letter arbejdspresset. Men denne dobbelthed skaber etiske dilemmaer, fx når lærere forbyder AI-genererede elevopgaver, men selv bruger AI til bedømmelse.
Artiklen fremhæver den voksende industri omkring AI i undervisningen. Store investeringer og massiv markedsføring fra tech-giganter som Google og Microsoft lover en digital transformation af skolen, men rejser spørgsmål om balancen mellem automatisering og den menneskelige relation i undervisningen. Her er der mange lærere som udtrykker et ønske om AI-værktøjer, der understøtter administrative opgaver frem for at erstatte selve undervisningen.
Læs hele artiklen her:
AI-forudsigelser i amerikanske universiteter kan forstærke racemæssige og sociale skævheder
På amerikanske universiteter bliver AI i stigende grad brugt til at forudsige, hvilke studerende der vil gennemføre deres uddannelse. Formålet er at målrette støtte, økonomisk hjælp og vejledning på baggrund af individuelle data som karakterer, demografi og tidligere akademiske præstationer. Men en ny undersøgelse viser, at disse algoritmer kan være forudindtagede, særligt over for racemæssige minoriteter som sorte og latinamerikanske studerende. Det skyldes, at modellerne bygger på historiske data, som afspejler tidligere uligheder i det amerikanske uddannelsessystem.
Analysen viste, at sorte og latinamerikanske studerende langt oftere blev fejlagtigt vurderet til ikke at ville gennemføre deres uddannelse – selvom de reelt gjorde det. Disse fejl – såkaldte “false negatives” – forekom fire gange oftere blandt sorte studerende end blandt asiatiske. Det peger på, at algoritmerne overgeneraliserer ud fra gruppebaserede mønstre og ikke tager højde for den variation, der findes inden for de racemæssige grupper. Samtidig mangler modellerne ofte data om faktorer som familieopbakning og studiemiljø, der ellers kan have stor betydning for de studerendes trivsel og præstation.

Ugens andre nyheder




