
Ugens nyheder: 8 kommuner viser vej til ansvarlig AI-undervisning i grundskolen
Bliv klogere på AI’s rolle i uddannelse i ugens nyhedsbrev. Få indblik i otte kommuners erfaringer med ansvarlig AI-undervisning, læs om etiske dilemmaer og nye studier af AI’s effekt på arbejdsmarkedet, og få et glimt af fremtidens AI-systemer.
Indholdsfortegnelse
I ugens nyhedsbrev kommer vi vidt omkring, men starter med de danske nyheder, der har fokus på undervisningssektoren.
- I den forgangne uge har KL udgivet et inspirationskatalog til grundskolen med eksempler fra otte kommuner, som viser, hvordan AI kan integreres ansvarligt i undervisningen.
- Der lød også et opråb fra Mathilde Tronegård, direktør for Studievalg Danmark, som advarer mod AI-baseret studievalg og insisterer på, at menneskelig vejledning er uundværlig.
- Vi blev selv en smule provokeret af IT-debattøren Mogens Nørgaards klumme i Computerworld, hvor han kritiserer den traditionelle lærerrolle. Mange har en mening om skolen, fordi de selv har gået der, men ved ofte ikke, hvordan nutidens undervisning ser ud – med eller uden teknologi. Når det er sagt, mener vi, at det er vigtigt at inddrage disse synspunkter, og måske gemmer der sig et gran af sandhed i dem.
Da vi researchede til dette nyhedsbrev, faldt vi over en sag fra Californien.
- I Californien blev AI brugt til at formulere spørgsmål til en juraeksamen – vel at mærke uden, at jurister var involveret i processen. Det er bemærkelsesværdigt, at fagfolk ikke blev inddraget – måske handler det i sidste ende om at spare penge. Nyheden understreger også, at vi bør være påpasselige med at bruge AI ukritisk.
Hvis vi flytter blikket lidt og ser på, hvilken effekt AI har på arbejdsmarkedet, er den vist ret begrænset.
- Et nyt studie viser, at AI-chatbots tilsyneladende ikke har haft stor effekt på det danske arbejdsmarked. Der er kun en meget lille besparelse pr. time, og omvendt oplever en mindre del af de adspurgte, at AI-chatbots har skabt flere opgaver. Det får dog ikke Dansk Erhverv til at opgive troen på AI’s potentiale.
Samtidig er der stadig store udfordringer med AI’s energiforbrug og dets påvirkning af samfundet.
- En amerikansk rapport advarer om generativ AI’s stigende energiforbrug og komplekse risici for samfund og miljø – uden at virksomhederne i tilstrækkelig grad rapporterer deres klimaaftryk.
Til slut kigger vi også lidt ud i fremtiden – for hvad kan vi forvente sker med AI, når alle teksterne slipper op?
- Et nyt essay reflekterer over en ny type AI, der arbejder med “oplevelsesbaseret intelligens”. I undervisningen kan det betyde AI-assistenter, som løbende tilpasser sig elevens niveau og mål – baseret på præstationer frem for faste regler.
Det var de nyheder og artikler, vi havde udvalgt til denne uge, og nederst finder du en række andre interessante nyheder.
Hvis du er nået hertil, så er der også udkommet en ny artikel på bloggen, der ser nærmere på NotebookLM, som nu er tilgængelig på dansk.

God læsning!
Nyt inspirationskatalog viser, hvordan otte kommuner arbejder med at integrere AI i grundskolen
KL har udgivet et inspirationskatalog med otte konkrete cases fra forskellige danske kommuner, som viser, hvordan AI kan anvendes i undervisningen. Formålet er at støtte skoler i at rammesætte AI-pædagogikken og fremme refleksion blandt både lærere og elever om teknologiens anvendelse og begrænsninger. Kataloget indeholder praksiseksempler, undervisningsforløb og materialer, der fokuserer på både teknologiforståelse, etik og praktisk anvendelse.
I København arbejdes der f.eks. med dilemmakort og kompetenceforløb for lærere og ledere, så skolerne kan opbygge en fælles forståelse af, hvordan og hvornår AI skal anvendes. I Rudersdal har elever arbejdet med at skelne mellem menneskeskabte og AI-genererede produkter, mens elever i Hvidovre anvender AI til at visualisere idiomer i sprogundervisningen. Andre eksempler viser, hvordan AI understøtter idéudvikling i projektopgaver, rollespil om politiske topmøder eller anvendes til at generere musik som feedback på undervisningen.
Et gennemgående træk i alle cases er, at AI betragtes som et supplement til den pædagogiske praksis – ikke som en erstatning. Samtidig understreges behovet for, at eleverne udvikler teknologiske, praktiske og etiske AI-kompetencer, og at lærerne eksperimenterer i fællesskab og drøfter dilemmaer. Materialet rummer derfor både didaktiske overvejelser, konkrete teknologier såsom SkoleGPT og værktøjer til at understøtte skolernes arbejde med AI.
Hent kataloget her:


AI kan støtte vejledningen – men aldrig erstatte den menneskelige kontakt
Mathilde Tronegård, direktør for Studievalg Danmark, understreger i forbindelse med den kommende EPX-uddannelse, at AI bør betragtes som et støtteværktøj – ikke som en erstatning for personlig vejledning. Selvom AI kan bruges til at forbedre digitale informationsplatforme som ug.dk og lette elevernes faktasøgning, advarer hun kraftigt imod at overlade selve studievalgsprocessen til AI-baserede, personaliserede anbefalingssystemer. Hun fremhæver især etiske risici såsom datasikkerhed og gennemsigtighed i algoritmer.
På EPX med planlagt opstart i 2030, skal AI spille en rolle i vejledningen. Den konkrete implementering er dog stadig uklar. Tronegård ser muligheder i, at AI kan frigøre vejledernes tid til mere meningsfulde samtaler med eleverne. Samtidig skal eleverne ifølge hende lære at bruge AI kritisk – for eksempel ved at formulere effektive prompts og vurdere kvaliteten af den information, de modtager.

Danske undervisere halter bagefter i brugen af AI
It-debattør Mogens Nørgaard leverer i sin seneste klumme i Computerworld en omfattende kritik af både dansk og europæisk teknologiudvikling – med særligt fokus på manglende handlekraft og det, han kalder ”AI-skam” blandt undervisere. Han mener, at Europa halter markant bagefter USA og Kina, når det gælder udvikling af avancerede digitale løsninger som cloud-tjenester og AI i undervisningen.
Især i Danmark bremser følelsesmæssige barrierer og manglende teknologiforståelse implementeringen af AI i skolesystemet, hvor mange undervisere undgår teknologien af frygt for at miste kontrol, autoritet og status. Den såkaldte AI-skam stammer fra en uvilje mod at give slip på den traditionelle lærerrolle og den antagelse, at viden udelukkende formidles gennem lærerens tale eller bøger.
Dette står i kontrast til USA, hvor universiteter som Wharton allerede har gjort AI til en integreret del af undervisningen og evaluerer de studerende ud fra, hvor klogt og kreativt de anvender det.
I Danmark mødes AI derimod stadig med skepsis – ikke baseret på reel kritisk tænkning, men som en refleksagtig reaktion over for det nye.
AI hjalp med at udforme amerikansk juraeksamen
Den californiske advokatstand er kommet i modvind, efter at det er blevet afsløret, at 23 af multiple choice-spørgsmålene i februar 2025-udgaven af bar-eksamen blev udarbejdet med hjælp fra AI – og ikke nødvendigvis af jurister. Samtidig blev eksamen ramt af alvorlige tekniske problemer, hvor testplatforme gik ned, og mange deltagere havde vanskeligheder med at gennemføre prøven. Det har fået Californiens advokatsamfund til at anmode højesteret om at justere karaktererne.
Reaktionerne har været skarpe, især fra juridiske undervisere. Kritikere kalder det “uhørt”, at ikke-jurister og AI har været med til at formulere centrale dele af en juridisk eksamen. Ifølge baren er de AI-genererede spørgsmål udviklet i samarbejde med testfirmaet ACS Ventures og vurderet som valide. Men professorer stiller spørgsmålstegn ved både processens faglighed og gennemsigtighed, især fordi det samme firma også stod for at evaluere egne spørgsmål.
Ekspert i jura og AI, Andrew Perlman, kalder det forventeligt, at AI begynder at blive brugt til eksamensudvikling, men understreger, at faglige eksperter skal godkende alle AI-genererede elementer. Han spår, at AI fremover vil være en fast del af advokatfagets praksis, og at det på sigt kan blive et problem ikke at anvende teknologien professionelt.

Nyt studie: AI-chatbots ændrer arbejdets karakter, men sparer kun lidt tid
To år efter lanceringen af ChatGPT har et nyt dansk studie undersøgt, hvilken konkret effekt AI-chatbots har haft på det danske arbejdsmarked. Konklusionen er klar: Effekten er langt mindre end forventet.
Undersøgelsen bygger på data fra 50.000 danske lønmodtagere og viser, at den gennemsnitlige tidsbesparelse ved brug af AI-chatbots som ChatGPT kun er 2,8 % – svarende til cirka halvandet minut per arbejdstime. Samtidig ses ingen målbare ændringer i hverken arbejdstid eller lønniveau.
Forskerne bag studiet, Anders Humlum fra University of Chicago og Emilie Vestergaard fra Københavns Universitet, understreger, at tidligere undersøgelser har overestimeret AI’s effektiviseringspotentiale, fordi de fokuserede på opgaver, der var særligt egnede til automatisering. I virkeligheden udgør disse opgaver kun en lille del af de fleste medarbejderes arbejdsdag.
Til gengæld oplever 8,4 % af de adspurgte, at AI-chatbots har skabt flere opgaver, eksempelvis i form af tilpasning af arbejdsgange og ændret opgavestruktur.
Samtidig viser data, at medarbejdere i virksomheder, der aktivt opfordrer til brugen af AI, i højere grad rapporterer kvalitetsforbedringer, øget kreativitet og bedre arbejdsflow, dog stadig uden effekt på deres løn.
Studiet understøtter dermed tanken om, at teknologisk adoption kræver mere end blot adgang til værktøjet, organisatorisk opbakning og tilpasning er afgørende.

Bag betalingsmur
Læs hele undersøgelsen her
På trods af den begrænsede effekt holder Dansk Erhverv fast i AI-optimismen
Der er dog ingen tegn på, at erhvervslivet er ved at opgive troen på teknologien. Hos Dansk Erhverv møder man resultaterne med realisme – men også med fortsat optimisme.
Fagchef Frederikke Saaby anerkender, at mange virksomheder har været skuffede over de udeblevne hurtige resultater, men fremhæver samtidig, at der stadig er en stærk tro på AI’s potentiale.
Trods de foreløbige, beskedne resultater er der altså ikke tale om resignation – snarere om, at der nu stilles større krav til anvendelsen af AI i praksis.
Det afspejler en bredere tendens i erhvervslivet, hvor AI i stigende grad anses som en strategisk investering snarere end en hurtig gevinst.

Bag betalingsmur
Generativ AI belaster miljøet og rejser nye samfundsmæssige risici
En ny rapport fra U.S. Government Accountability Office (GAO) undersøger de miljømæssige og samfundsmæssige konsekvenser af generativ AI. Teknologien er i hastig vækst og anvendes på tværs af sektorer, men der er betydelige udfordringer forbundet med dens ressourceforbrug. Træning og anvendelse af store sprogmodeller kræver enorme mængder elektricitet og vand – særligt til drift og nedkøling af datacentre. Produktionen af hardware og datacentrenes energibehov bidrager i stigende grad til CO₂-udledning og vandforbrug. Ikke desto mindre offentliggør virksomheder sjældent detaljerede data om deres miljøpåvirkning.
Rapporten beskriver, hvordan generativ AI påvirker forskellige samfundsområder som offentlige tjenester, arbejdsmarkedet, uddannelse og forskning. For eksempel kan AI forbedre tilgængeligheden af information, men det kan også være vanskeligt at placere ansvaret ved fejlagtige anbefalinger. I undervisning og forskning er der især behov for gennemsigtighed og pålidelige metoder til vurdering af AI’s validitet og etiske implikationer.

Fremtidens AI skal lære gennem erfaring, ikke blot fra menneskelig viden
Et nyt essay af AI-forskerne Richard S. Sutton og David Silver opfordrer til et paradigmeskifte i AI-udviklingen – væk fra menneskeskabt data og hen imod AI-agenter, der lærer ved selv at handle og interagere med verden. Inspireret af Suttons berømte “Bitter Lesson” understreger de, at menneskelig indsigt og forudindkodet viden sjældent fører til banebrydende gennembrud inden for AI. I stedet er det algoritmer, der kontinuerligt tilpasser sig og lærer gennem handling og feedback, som driver den reelle udvikling.
Ifølge Sutton og Silver når generative AI-systemer som sprogmodeller deres grænse, fordi de udelukkende er baseret på eksisterende menneskelige tekster. For virkelig kreativ og autonom AI skal modeller i stedet udvikle en “oplevelsesbaseret intelligens”, hvor nye indsigter opstår gennem interaktion med omgivelserne, for eksempel ved at udføre handlinger, eksperimentere og modtage feedback – både digitalt og fysisk. Et eksempel er AlphaProof, som kombinerer sprogmodeller med reinforcement learning og har genereret millioner af nye matematiske beviser.
De fremhæver også nødvendigheden af, at AI-systemer opbygger “verdensmodeller”, det vil sige interne simulationer, der kan forudsige konsekvenser af handlinger og muliggøre ægte planlægning. Det er især vigtigt for AI-assistenter inden for sundhed, uddannelse og forskning, hvor feedback ikke kun kommer fra menneskelige vurderinger, men også fra målbare resultater i den virkelige verden. Netop fordi agenter lærer af konsekvenser, kan denne læringsform ifølge forfatterne gøre AI mere sikker, da den afspejler virkelighedens kompleksitet og begrænsninger.
Læs hele essayet her: https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf

Ugens andre nyheder



