Matomo

spring til indhold

Ugens nyheder: Teknologiforståelse, billedmanipulation og prædiktiv AI

Fra gymnasierektorers opfordring til obligatorisk teknologiforståelse til kritiske perspektiver på AI-billedmanipulation og prædiktive algoritmer. Få indblik i den nyeste udvikling inden for kunstig intelligens i uddannelsessektoren.

· 12 minut læses

Indholdsfortegnelse

Hermed får du ugens nyhedsbrev om kunstig intelligens i undervisningen.

Vi er i fuld gang med at ommøblere lidt på Viden.AI for at gøre indholdet mere tilgængeligt. Lige nu synes vi, at der er langt ned til nogle af de temaer, vi mener fortjener lidt mere opmærksomhed, som fx bæredygtighed, etik og faglig sorg. Samtidig vil vi også gerne gøre siden mere levende og kommer derfor til at introducere en nyhedssektion, hvor vi løbende lægger nyheder om AI i undervisningen. Men bare rolig - vi beholder vores nyhedsbrev som en fast, ugentlig opsummering af, hvad der er sket.

Eftersom der har været påskeferie, har der ikke været skrevet meget om kunstig intelligens i undervisningen i dansk kontekst. Derfor retter vi i dette nyhedsbrev blikket mod USA for at få et mere globalt perspektiv på strømninger, vi måske også vil se i Danmark.

Men inden vi kommer så langt, har vi tre henvisninger fra vores egen verden:

Mens vi venter på Styrelsen for IT og Lærings (STIL) kommende vejledning om brugen af generativ AI i undervisningen, vender vi blikket mod Norge.

Mens vi fra Norge har fået nogle værdifulde juridiske perspektiver på AI og persondata, kommer der også relevant inspiration fra erhvervslivet.

I USA ser vi en række udfordringer, som vi nok allerede ser udfolde sig i Danmark, og derfor er det relevant at følge med i.

Derudover har vi ugens andre nyheder.

I dag glæder vi os til at deltage i LEX-konferencen om troværdig viden i AI-tidsalderen. Læs mere herunder, og tilmeld dig for at få adgang til videostream fra konferencen. Det er kl. 15.00-17:30.

En af de ting, de helt sikkert vil tale om, er det nye samarbejde, hvor Lex går sammen med Aarhus Universitet om at udvikle en dansk chatbot, som giver brugerne mulighed for at gå i dialog med Lex’ indhold – uden at afgive personlige oplysninger.

Dansk chatbot skal styrke adgang til troværdig information
Læs mere her.
Konference: Troværdig viden i AI-tidsalderen - mere.lex.dk
Konferencen finder sted den 23. april kl. 15.00-17.30 i Dronningesalen på Det Kgl. Bibliotek i København. [ OPDATERING ] Alle pladser i salen er booket, så du kan ikke længere tilmelde dig fysisk deltagelse. Du kan stadig tilmelde dig og se med online. Alle tilmeldte vil efterfølgende få tilsendt link til en optaget version af […]

God læselyst med nyhedsbrevet.


Teknologiforståelse skal være en grundpille i undervisningen

Rektor Martin Ingemann fra Egaa Gymnasium kritiserer i et debatindlæg i Uddannelsesmonitor den nuværende retning i den danske uddannelsespolitik, som han mener ignorerer de grundlæggende forandringer i samfundet, drevet af digital teknologi og AI. Han peger på, at mens resten af verden diskuterer avanceret teknologi og digitale værktøjer, fokuserer Danmark stadig på mere traditionelle emner som litteraturkanon og eksamensformer, der ikke afspejler virkeligheden.

Han opfordrer til, at man stiller de rette spørgsmål til AI og teknologien – ikke hvordan man beskytter sig imod den, men hvordan den ændrer vores forståelse af faglighed, viden og læring. Han argumenterer for, at uddannelsessystemet skal være en aktiv del af samfundets teknologiske udvikling og forberede unge på en virkelighed, der er i hastig forandring.

Læs hele debatindlægget her:

Rektor: Stiller vi overhovedet de rigtige spørgsmål, når vi spørger til kunstig intelligens?
Teknologiforståelse bør være et obligatorisk fag i både grundskoler og ungdomsuddannelser, og den nye teknologi skal indarbejdes i fagene på en naturligvis fornuftig og balanceret måde.

Manipulerede AI-billeder forvrænger virkeligheden og truer demokratisk tillid

Politiken har i en artikel afdækket, hvordan OpenAI’s frit tilgængelige billedgenerator i ChatGPT på rekordtid har gjort det muligt for millioner af brugere at skabe manipulerede billeder. På blot en uge blev der genereret 700 millioner billeder. Selvom mange bruger funktionen til underholdning og kreativ leg, advarer forskere og eksperter om alvorlige konsekvenser for vores forståelse af virkelighed og demokrati. Eksperter som Gry Hasselbalch og Yevgeniy Golovchenko peger på, at den lette adgang til AI-værktøjer udvisker grænsen mellem sandhed og fiktion – hvilket kan underminere tillid, sprede misinformation og skade den demokratiske dialog.

Problemet ligger ikke kun i teknologien, men i den massive tilgængelighed. Manipulerede billeder og videoer kan bruges til at undergrave enkeltpersoners troværdighed, skabe mistillid og fremme desinformation. Ifølge it-sikkerhedsekspert Keld Norman er det i dag nemt for alle, også kriminelle, at fabrikere overbevisende billedfalsknerier. OpenAI har forsikret, at der er indbyggede sikkerhedsforanstaltninger, men kritikere mener, at værktøjet allerede har fjernet væsentlige filtre og kontrolmekanismer.

Professor Morten Mørup fra DTU fremhæver, at vi risikerer at miste en fælles virkelighedsforståelse, fordi AI-manipulation i stor skala gør det vanskeligt at skelne sandt fra falsk. Dette er især problematisk i en medievirkelighed, hvor algoritmisk kurateret information forstærker filterbobler. Eksperterne understreger, at kildekritik og etiske overvejelser nu er vigtigere end nogensinde, og at det bør være en fast praksis at deklarere AI-skabt materiale – især når det involverer virkelige personer.

Værktøj til manipulation, svindel og misinformation er nu blevet allemandseje
ChatGPT har givet let adgang til at manipulere med billeder. Vi sætter gang i kreativiteten, svarer techgiganten. Udviklingen korrumperer vores virkelighedsforståelse og demokrati, advarer forskere.

AI vil ikke revolutionere arbejdsmarkedet

I Berlingske stiller flere fremtrædende økonomer spørgsmålstegn ved de høje forventninger til AI’s betydning for arbejdsmarkedet og produktivitetsvæksten.

Professor Jesper Rangvid fra CBS forholder sig skeptisk til de store løfter, der ofte knyttes til AI, og sammenligner den nuværende hype med forventningerne til internettet under dotcom-boblen i 1990’erne. Han peger på, at tidligere teknologiske gennembrud – som f.eks. computere og internettet – ikke har medført målbare spring i produktiviteten, og at et lignende mønster kan gentage sig med AI.

Danske Banks cheføkonom, Las Olsen, understreger samtidig, at produktivitetsforbedringer er svære at måle i sektorer, hvor der ikke produceres fysiske varer.

Professor i økonomi ved Aarhus Universitet, Philipp Schröder, understøtter dette synspunkt og mener, at det er vigtigt at skelne mellem kortsigtede og langsigtede effekter. Når teknologien først er implementeret, vil produktivitetsudviklingen vende tilbage til sit oprindelige niveau. Han fremhæver dog, at AI kan bidrage til øget effektivitet i sektorer som advokatbranchen og undervisningsområdet, hvor det tidligere har været vanskeligt at opnå produktivitetsforbedringer.

Også Natasha Friis Saxberg fra IT-Branchen påpeger, at AI stadig er en ung teknologi, og at dens langsigtede potentiale kan blive undervurderet – selvom den på kort sigt ikke lever op til forventningerne.

Topøkonomer: Gevinsterne ved kunstig intelligens er stærkt overdrevne. Kun få job vil forsvinde
Læs mere her.

Bag betalingsmur


Relativ anonymisering kan gøre brugen af AI i skolen både lovlig og praktisk forsvarlig

I et længere debatindlæg argumenterer Odin Hetland Nøsen, skolekonsulent ved Randbergskolen, for, at opfattelsen af, hvornår noget udgør en personoplysning, ofte er alt for absolut – især i sammenhæng med AI og uddannelse.

Med afsæt i både egne eksempler og nyere EU-domme viser han, at en oplysning først udgør en personoplysning, når den kan knyttes til en identificerbar fysisk person – og at dette altid afhænger af konteksten. Når en modtager, f.eks. OpenAI via et API, ikke har adgang til identifikationsdata eller kontekst, vil oplysningerne i praksis være anonymiserede for denne tredjepart.

Selvom EU-domstolens praksis klart peger i retning af relativ anonymisering, hersker der stadig en vis juridisk usikkerhed på området. Institutioner bør derfor fortsat vurdere hver enkelt situation konkret.

«Relativ anonymisering» virker – og er lov
Absolutter er noe vi skal være forsiktige med i en kontekstuell og relativ verden. Det gjelder også for hva som er en personopplysning. Personvernansvarlige - kan dere ta dere en bolle (og en kopp kaffe), og tenke på det jeg skriver her?

Ny bog: Gunstig intelligens

💡
Note: Vi har modtaget bogen Gunstig intelligens som anmeldereksemplar fra forlaget. Dette har dog ikke påvirket vores omtale, og forlaget har ikke haft indflydelse på vores vurdering eller på udvælgelsen af det indhold, vi fremhæver.

I en ny bog af Carsten Lund Pedersen og Thomas Ritter er der fokus på, hvordan AI-projekter kan implementeres på en velovervejet måde, så de gavner organisationen. Bogen præsenterer en række modeller, der giver en struktureret og overskuelig vejledning i implementering af AI-projekter, så de skaber reel forretningsværdi. Den indeholder også overvejelser om, hvornår et AI-projekt bør opgives.

Vi har fået bogen til gennemsyn, og den henvender sig primært til ledere, it-specialister og konsulenter i erhvervslivet.

Selvom bogen primært henvender sig til erhvervslivet, har vi valgt at omtale den her. Det skyldes, at bogen præsenterer en række modeller, hvoraf mange kan overføres til uddannelsesområdet i forbindelse med strategisk implementering af AI i skoler.

💡
Her på bloggen mener vi, at især kapitel 8 – Gnidninger ved KI-implementeringer: Hvor enige er I i jeres organisation? – med fordel kan bruges til at afdække behov i skolerne.

I bogen præsenteres en praktisk model til at identificere og håndtere gnidninger i forbindelse med AI-implementeringer i organisationer. Modellen introducerer et “gnidningsindeks”, der måler, hvor enige medarbejderne er om ambitionsniveauet for AI-projekter.

Konkret kan skoler anvende modellens enkle 5-punktsskala, hvor medarbejdere kan tilkendegive, om de synes, skolens AI-ambitionsniveau er “Alt for lavt”, “Lidt for lavt”, “OK”, “Lidt for højt” eller “Alt for højt”. I en skolekontekst kan dette eksempelvis bruges til at undersøge, om lærerne mener, at skolens planer for implementering af AI-værktøjer i undervisningen er for ambitiøse – eller omvendt ikke ambitiøse nok.

Bogens gnidningsindeks kan hjælpe skoleledere med at afdække, hvor der er konsensus, og hvor der hersker uenighed blandt lærerne. Hvis halvdelen af lærerne eksempelvis mener, at skolen bør implementere AI-værktøjer hurtigere, mens den anden halvdel er bekymret for tempoet, opstår der et “dilemma”, som bogen beskriver det – en situation, hvor det, uanset beslutning, vil være svært at opnå fuld opbakning.

Det centrale budskab er, at gnidninger er uundgåelige ved AI-implementeringer, men kan håndteres konstruktivt gennem åben dialog og beslutningsprocesser, der fokuserer på værdiskabelse frem for drænende konflikter. Ved at erkende, diskutere og på passende tidspunkter afslutte gnidningerne, kan skolen skabe en bedre implementeringsproces.

Gunstig intelligens | Samfundslitteratur
Samfundslitteratur er et lærebogsforlag for de videregående uddannelser. Vi udvikler akademiske læremidler og løsninger til undervisere og studerende

AI bruges til at undgå læring – men problemet er dybere end som så

I Time Magazine beskriver Catherine Goetze, hvordan studerendes brug af AI ikke blot handler om dovenskab eller snyderi, men snarere et symptom på en større krise, nemlig at vores kollektive opmærksomhed er under pres.

Her skriver hun, at selv flittige og ambitiøse studerende føler sig mentalt udmattede og fristet til at bruge AI, fordi det kognitivt krævende arbejde virker uoverskueligt. Ifølge Catherine Goetze er årsagen ikke AI i sig selv, men den vedvarende påvirkning fra sociale medier, som har vænnet unge til øjeblikkelig belønning og svækket evnen til at fordybe sig.

Når AI bruges som genvej, udelades centrale læringsprocesser, hvilket går ud over evnen til at strukturere tanker, opbygge argumenter og tackle svære opgaver. Det skaber ikke kun faglig svækkelse, men også en følelse af mindreværd.

Men der er også mange studerende, der rent faktisk bruger AI konstruktivt, f.eks. til at stille nysgerrige spørgsmål, få forklaret svære emner eller skabe egne projekter. Her bliver AI en måde at fordybe sig i emner, som ikke altid dækkes af pensum.

Hun argumenterer for, at løsningen ikke er at forbyde AI i skolen, men at hjælpe eleverne med at genopbygge deres evne til fordybelse og indre motivation. Her bør lærere møde elevernes nysgerrighed med åbne svar og bruge AI som en fælles undersøgelsesplatform – ikke som et overvågningsredskab til kontrol.

Hun afslutter med at pege på behovet for at stille techgiganter til ansvar for den måde, deres platforme har fragmenteret unges opmærksomhed og skabt de betingelser, AI nu kritiseres for at forværre.

Why Students Are Using AI to Avoid Learning
Social media has eroded our patience for challenging cognitive tasks. Now, students are conditioned to reach for AI.

Lærere bruger AI flittigt – men er skeptiske over for, at eleverne gør det samme.

The New York Times skriver, hvordan mange lærere i stigende grad anvender generativ AI i deres arbejde – samtidig med at de forsøger at begrænse elevernes brug af samme teknologi. Lærere bruger AI til at planlægge undervisning, rette opgaver og analysere elevdata, hvilket sparer tid og letter arbejdspresset. Men denne dobbelthed skaber etiske dilemmaer, fx når lærere forbyder AI-genererede elevopgaver, men selv bruger AI til bedømmelse.

Artiklen fremhæver den voksende industri omkring AI i undervisningen. Store investeringer og massiv markedsføring fra tech-giganter som Google og Microsoft lover en digital transformation af skolen, men rejser spørgsmål om balancen mellem automatisering og den menneskelige relation i undervisningen. Her er der mange lærere som udtrykker et ønske om AI-værktøjer, der understøtter administrative opgaver frem for at erstatte selve undervisningen.

Læs hele artiklen her:


AI-forudsigelser i amerikanske universiteter kan forstærke racemæssige og sociale skævheder

På amerikanske universiteter bliver AI i stigende grad brugt til at forudsige, hvilke studerende der vil gennemføre deres uddannelse. Formålet er at målrette støtte, økonomisk hjælp og vejledning på baggrund af individuelle data som karakterer, demografi og tidligere akademiske præstationer. Men en ny undersøgelse viser, at disse algoritmer kan være forudindtagede, særligt over for racemæssige minoriteter som sorte og latinamerikanske studerende. Det skyldes, at modellerne bygger på historiske data, som afspejler tidligere uligheder i det amerikanske uddannelsessystem.

Analysen viste, at sorte og latinamerikanske studerende langt oftere blev fejlagtigt vurderet til ikke at ville gennemføre deres uddannelse – selvom de reelt gjorde det. Disse fejl – såkaldte “false negatives” – forekom fire gange oftere blandt sorte studerende end blandt asiatiske. Det peger på, at algoritmerne overgeneraliserer ud fra gruppebaserede mønstre og ikke tager højde for den variation, der findes inden for de racemæssige grupper. Samtidig mangler modellerne ofte data om faktorer som familieopbakning og studiemiljø, der ellers kan have stor betydning for de studerendes trivsel og præstation.

Using AI to predict student success in higher education
AI tools can help colleges predict student success—but without safeguards, they risk reinforcing racial and social bias.

Ugens andre nyheder

Israel rolls out AI tutors for every student in world-first pilot | CTech
eSelf and CET partner with Harvard to personalize learning at national scale.
Google One AI Premium is free for college students until Spring 2026
Competition for students is heating up between AI companies
The next leap in AI depends on agents that learn by doing, not just by reading what humans wrote
Richard S. Sutton’s “Bitter Lesson” lays out a hard truth at the heart of modern AI: Not the clever injection of human knowledge, but scalable learning and search algorithms are what deliver lasting breakthroughs. Now, a new paper from Sutton and David Silver builds on this thesis—sketching out a far-reaching vision for AI agents that advance solely through action and feedback.
Technology is not the problem in AI – Lisdorf.com
The philosopher’s machine: my conversation with Peter Singer’s AI chatbot
The world’s most famous living philosopher has launched a chatbot to deal with ethical dilemmas. One former philosophy student-turned-journalist tests it out

Seneste