Ugens nyheder: Skolen begynder at finde sin egen vej med AI
Gymnasiefællesskabet, Ordbogen og lærere over hele landet er ved at finde svarene på, hvordan AI kan styrke undervisningen. Det er ikke længere kun et spørgsmål om regler, men om retning.
Gymnasiefællesskabet, Ordbogen og lærere over hele landet er ved at finde svarene på, hvordan AI kan styrke undervisningen. Det er ikke længere kun et spørgsmål om regler, men om retning.
Hermed ugens nyhedsbrev med de nyheder og artikler, vi har udvalgt om kunstig intelligens i uddannelsessystemet.
Når vi udvælger indhold til nyhedsbrevet, prøver vi altid at være balancerede og undgå forudindtagethed. Det er altid en balance, for debatten om AI i uddannelse bliver ofte fremstillet som sort eller hvid, enten for eller imod. Men om vi vil det eller ej, så er AI allerede rykket ind i unges liv. Direktør Marianne Skjold fra Psykiatrifonden fortæller, at fire ud af ti i aldersgruppen 18 til 29 år har brugt en chatbot til samtaler om psykisk trivsel.
AI er ikke kun rykket ind i de sårbare samtaler. Den fylder også mere og mere i klasseværelset, og den virker forskelligt fra elev til elev.
I sidste uge talte vi en del om studiet fra Aarhus Universitet, som viste, at de fagligt svageste studerende klarede sig bedre med AI, mens de fagligt stærkeste klarede sig dårligere. Det interessante er, at vi selv beskrev en lignende tendens allerede tilbage i 2023 i artiklen: “Forskellige elevtypers brug af kunstig intelligens i undervisningen”.
Derfor er det vigtigt, at lærerne klædes på til at forstå, hvordan teknologien påvirker forskellige elever på forskellige måder.
Gymnasiefællesskabet, som består af 29 gymnasier, har netop modtaget ni millioner kroner fra Villum Fonden til at efteruddanne 2.500 lærere og udvikle en fælles sprogmodel kaldet gym-GPT, der kan bruges ansvarligt i undervisningen. Ordbogen har også lanceret deres egen løsning, educhat.dk, hvor alle data behandles i et dansk datacenter.
Men hvad skal eleverne så lære?
Rektor Malene Grandjean fra Nordfyns Gymnasium argumenterer for, at eksamensformerne hurtigt må gentænkes, og at almendannelse, dømmekraft og etik må fylde mere, når teknologien kan formulere sig på elevernes vegne.
Lektor Jacob Sherson fra Aarhus Universitet, som leder Center for Hybrid Intelligence, beskriver to mulige fremtider frem mod 2050. I den ene er samfundet AI-first, og mennesker fungerer som kontrollanter. I den anden konkurrerer virksomheder på tillid og menneskelig indsigt, og kvaliteten af beslutninger bliver vigtigere end produktionshastigheden. Martin Ågerup fra Skattebetalerne ser et stort økonomisk potentiale i uddannelsessektoren, men understreger, at gevinsten kræver helt nye måder at indrette sektoren på.
Det er to vidt forskellige scenarier, og valget mellem dem træffes ikke i 2050. Det træffes i de opgaver, lærerne stiller i dag.
I ugens kommentar går jeg tættere på fundet fra Aarhus Universitet. For hvis AI hjælper de fagligt svage og svækker de fagligt stærke, er det ikke nok at lære eleverne at prompte bedre.
God læselyst med nyhedsbrevet.
I en ny pressemeddelelse fra Psykiatrifonden fortæller direktør Marianne Skjold, at flere unge bruger chatbots som ChatGPT til samtaler om deres psykiske trivsel. En undersøgelse fra fonden viser, at fire ud af ti i aldersgruppen 18 til 29 år har brugt en chatbot en eller flere gange til samtaler om psykiske problemer. Samtidig lancerer Psykiatrifonden webuniverset “Chatbots som skyggeterapeuter”, som belyser fordele, faldgruber og etiske dilemmaer ved at bruge AI som samtalepartner i forbindelse med psykisk sygdom.
Marianne Skjold rejser spørgsmålet om regulering og foreslår, at chatbots måske skal mærkes ligesom cigaretpakker, eller at AI skal reguleres på internationalt niveau. Hun understreger, at udviklingen hverken kan eller bør stoppes, men at digitale redskaber, der bruges i forbindelse med psykisk sygdom, skal være sikre og velfunderede.
Derfor efterlyser Psykiatrifonden klare regler, stærkere sikkerhedsnet og omfattende oplysningsindsatser i form af undervisning og digital dannelse på tværs af aldersgrupper.


Et nyt studie fra Aarhus Universitet viser, at brugen af AI i en eksamenslignende situation kan have vidt forskellige konsekvenser for studerende afhængigt af deres faglige niveau.
Resultatet var markant: De fagligt svagere studerende klarede sig bedre, mens de fagligt stærkere klarede sig dårligere. For nogle gav GenAI struktur, formuleringer og et brugbart sted at starte. For andre skabte det overload ved at tilføre for meget plausibelt materiale, som skulle sorteres og bearbejdes under pres. Pointen er, at god brug af GenAI i undervisning ikke kun handler om bedre prompts, men om at designe opgaver, hvor AI understøtter tænkning i stedet for at forstyrre den. Nogle gange er den vigtigste GenAI-kompetence ganske enkelt at vide, hvornår man ikke skal bruge det.
Studiet er gennemført af blandt andre lektor Carsten Bergenholtz fra Institut for Virksomhedsledelse på Aarhus BSS og udgivet i tidsskriftet Academy of Management Learning & Education. Omkring 140 studerende deltog i forsøget, hvor de først skulle løse en skriftlig caseopgave uden hjælpemidler. Derefter løste de en lignende opgave, hvor nogle tilfældigt fik adgang til en chatbot, mens andre ikke gjorde. Forskerne brugte den første opgave til at vurdere de studerendes faglige niveau og sammenlignede derefter deres præstationer.
Det korte svar fra studiet er: Ikke alle studerende bliver bedre med hjælp fra GenAI.
Gymnasiefællesskabet, som består af 29 gymnasier, har modtaget ni millioner kroner fra Villum Fonden til et projekt, der skal efteruddanne 2.500 gymnasielærere i AI og udvikle en fælles “gym-GPT” til eleverne. Bevillingen kommer i forlængelse af en rapport fra Danmarks Evalueringsinstitut tidligere i år, som viste, at 90 procent af gymnasieeleverne bruger AI til skolearbejde, og at 70 procent gør det ugentligt.
Mette Vedel, der er forperson for projektets styregruppe og rektor på Nørre Gymnasium, forklarer, at projektet skal lukke et kompetencegab mellem lærere, elever og selve teknologien. Hun fremhæver samtidig, at en fælles sprogmodel, der lever op til kravene om datasikkerhed, GDPR og AI-regulering, kan modvirke den sociale ulighed, der opstår, når nogle elever får adgang til betalte AI-værktøjer gennem deres forældre, mens andre ikke gør.
Bag betalingsmur
Ordbogen har lanceret platformen educhat.dk, en AI-assistent udviklet til det danske uddannelsessystem. Samtidig er Ordbogen nomineret til Dataetikprisen 2026.
Tilgangen til educhat er, at alle data behandles og opbevares i Ordbogens eget datacenter i Odense, mens adgangen sker via Unilogin. Dermed undgår man, at elever eller forældre skal oprette private konti.
Direktør Peter Revsbech fortæller, at ambitionen er at fjerne den juridiske usikkerhed, som mange skoleledere har stået med, når elever har brugt udenlandske AI-tjenester uden klare rammer for databehandling.
Platformen er designet til at tilpasse sig den enkelte elevs klassetrin og faglige niveau. Den giver samtidig læreren mulighed for at uploade egne materialer, så svarene forankres i det aktuelle pensum frem for i generelle internetsvar.
Ordbogen arbejder også med muligheder for indtaling og oplæsning som specialpædagogisk støtte for elever med ordblindhed og læsevanskeligheder.

Bag betalingsmur
Malene Grandjean, rektor på Nordfyns Gymnasium, argumenterer i et debatindlæg på A4 Uddannelse for, at AI ikke blot ændrer arbejdsmarkedet, men også grundlæggende udfordrer uddannelsessystemet. Hun peger på, at teknologisk udvikling tidligere især har påvirket bestemte jobtyper og rutineopgaver, men at AI går videre, fordi teknologien også kan analysere, formulere sig og understøtte beslutninger. Det betyder, at skoler og gymnasier ikke længere kun kan fokusere på, hvad eleverne ved, men i højere grad må arbejde med, hvordan de bruger deres viden.
Hun lægger op til en ændring af evaluerings- og eksamensformerne. Hvis skolen fortsat primært tester reproduktion af viden, risikerer den ifølge Malene Grandjean at uddanne elever til en virkelighed, der allerede er forandret. Hun mener derfor, at det haster med at gentænke eksamensformerne, fordi de har stor betydning for, hvad der prioriteres i undervisningen. Samtidig understreger hun, at AI gør almendannelse endnu vigtigere. Relationer, samarbejde, etik og dømmekraft er områder, teknologien ikke kan erstatte, og som derfor bør fylde mere i uddannelserne.
Jacob Sherson, lektor ved Aarhus Universitet og leder af Center for Hybrid Intelligence, fortæller i Science Report, at AI er ved at skifte rolle fra redskab til aktiv medspiller, der kan planlægge, koordinere og udføre komplekse arbejdsprocesser. Det betyder, at samfundet ikke kun skal diskutere, hvordan AI bruges, men også hvordan arbejdet skal fordeles mellem mennesker og maskiner.
Hans forskningsfelt, hybrid intelligens, handler om at designe systemer, organisationer og markeder, hvor AI og mennesker samarbejder på måder, der både øger produktiviteten og fastholder den menneskelige dømmekraft.
Han beskriver to mulige fremtidsscenarier frem mod 2050. I det ene bliver samfundet “AI-first”, hvor store dele af vidensarbejdet automatiseres, og mennesker primært fungerer som kontrollanter. I det andet udvikles en hybrid intelligens-økonomi, hvor AI bruges til at skabe og analysere indhold, mens mennesker fortsat formulerer problemer, vurderer løsninger og tager ansvar. I en sådan model bliver kvaliteten af beslutninger vigtigere end produktionshastigheden, og virksomheder kan komme til at konkurrere på tillid, ansvar og menneskelig indsigt frem for alene på effektivitet.

Bag betalingsmur
Martin Ågerup, direktør for Skattebetalerne, argumenterer i Ræson for, at AI kan ændre den offentlige sektor markant, og han fremhæver uddannelsessektoren som et af de områder, hvor potentialet kan være størst. I uddannelsessektoren kan teknologisk støtte få betydning for, hvordan tid og ressourcer prioriteres. Hvis AI kan overtage eller understøtte dele af dokumentation, sagsbehandling og rutineopgaver, kan det på skoler og uddannelsesinstitutioner betyde mindre tid på administration og mere tid til elever, undervisning, faglig vejledning og pædagogisk udvikling.
Martin Ågerup vurderer, at uddannelsessektoren muligvis kan opnå omtrent de samme resultater med væsentligt lavere udgifter end i dag. Som et forsigtigt og illustrativt bud nævner han, at udgifterne måske kan reduceres til 20–30 procent af det nuværende niveau, men han understreger, at det vil kræve helt nye måder at indrette sektoren på. Det centrale spørgsmål bliver derfor ikke kun, hvilke AI-værktøjer skolerne kan bruge, men også hvordan undervisning, organisering, opgaveløsning og medarbejderroller skal ændres, hvis teknologien skal skabe reel værdi.

Vi taler ofte om, at eleverne skal lære at prompte bedre. Jeg er ikke overbevist om, at det er det helt rigtige fokus. For at bruge svaret fra en AI fornuftigt skal du forstå det faglige godt nok til at vurdere, om det holder.
Men den vigtigste AI-kompetence, som overskygger alt andet, er ikke at vide, hvordan man bruger AI. Det er at vide, hvornår man ikke skal bruge teknologien. Det er en form for digital dannelse, som ikke kan trænes med flere værktøjer. Den må trænes gennem opgaver, hvor eleven mærker forskellen på sin egen stemme og en lånt formulering.
For den skelnen er ikke lige nem for alle elever. Studiet fra Aarhus Universitet viser, at adgang til generativ AI i en tidsbegrænset og åben caseopgave ikke virker ens på alle. De fagligt svage studerende klarede sig bedre, mens de fagligt stærke klarede sig dårligere. Forskerne beskriver det som en udligningseffekt snarere end en egentlig demokratisering. Hvis vi bygger undervisning og prøveformer på en forestilling om den gennemsnitlige elev, risikerer vi at designe opgaver, der især hjælper den fagligt svage. Vi løfter bunden, og det er godt. Men vi kan samtidig komme til at sænke toppen, og det er en form for kognitiv gæld, vi taler for lidt om. Den fagligt stærke elev får ikke bare en dårligere præstation denne gang. Eleven risikerer at få et fagligt liv, hvor hendes egen tænkning gradvist erstattes af redigering af noget, hun ikke selv har skabt.
Jeg mener ikke, at AI skal forbydes for de fagligt stærke og tillades for de fagligt svage. Den samme opgave med den samme adgang til AI er ikke det samme for alle elever. For nogle elever kan AI åbne en vej ind i faget. For andre kan teknologien blive en genvej uden friktion. Og for de fagligt stærkeste kan den enten blive et modspil eller en stille afvikling af deres egen stemme. Derfor må vi ikke nøjes med at spørge, om AI er tilladt. Vi må spørge, hvilken faglig handling eleven stadig selv skal eje.
Det er ikke et spørgsmål om at skrue op eller ned for teknologien. Det er et spørgsmål om at se eleven, som hun er, før vi rækker hende værktøjet.