Ugens nyheder: Den pædagogiske trafikulykke
Mister vi evnen til at tænke, når AI skriver for os? I denne uge sætter vi fokus på Thomas Telvings debatindlæg i Politiken om kognitiv aflastning, chatbots, der forvilder sig ind i folkeskolen, samt nye tal fra KU, der viser et massivt behov for undervisning i AI.
Indholdsfortegnelse
Hermed denne uges nyhedsbrev om kunstig intelligens i undervisningen.
Her er først en lille nyhed fra bloggen. Vi har tilføjet en effektiv søgefunktion, så du nemmere kan finde tidligere artikler og nyhedsbreve. Og nej, den bruger ikke AI!
Prøv den her, eller find den i menulinjen på Viden.AI:

I denne uge begynder vi hos filosoffen Thomas Telving, der i Politiken beskriver de seneste tre års udrulning af ChatGPT som en enorm pædagogisk og trafikal ulykke. Han mener, at vi har sendt eleverne ud på en motorvej uden kørekort og færdselsregler, og at de nu betaler prisen i form af svækkede evner til at tænke klart. Og når man læser ugens nyheder, tyder meget på, at farten på motorvejen er blevet endnu højere.
En ny rapport fra CAISA viser, at danskernes brug af AI er fordoblet på blot et år. En anden rapport fra Humaniora og Teologi på Københavns Universitet viser, at langt størstedelen af de studerende har stiftet bekendtskab med generativ AI. Udfordringen er, at næsten halvdelen aldrig har modtaget undervisning med fokus på teknologien, og at de dermed er overladt til selv at lære den at kende.
Samtidig afslører artikler i både Radar og Politiken, at techgiganterne i stort omfang ruller deres AI-værktøjer ud på folkeskolernes computere, uden at hverken lærere, ledere eller ministeriet har taget stilling til det.
Vi asfalterer ikke bare vejen, mens vi kører, men tillader også techgiganterne at bestemme, hvor vejen skal føre hen. Og når hverken elever eller lærere har fået tid til at forstå teknologien, bliver det også sværere at gennemskue dens begrænsninger.
Et eksempel på det ser vi i sagen om Flügger og Google, hvor hackere formåede at manipulere AI-modellen Gemini til at sprede disinformation. Hvis vi ikke forstår, hvordan AI-systemer fungerer, har vi heller ingen chance for at opdage, når de fejler eller bliver misbrugt. Og risikoen er helt reel, for en ny rapport fra Future of Life Institute viser, at sikkerheden hos tech-giganterne halter langt bagefter den teknologiske udvikling.
Selvom det hele ser lidt sort ud, er der gode tanker på vej fra dansk side. Den danske chatbot Lex går nu over til open source for at sikre datauafhængighed. Samtidig har KL netop udsendt en opdateret guide, der skal hjælpe kommunerne med at navigere ansvarligt i teknologien.
I ugens kommentar skriver jeg om, at faglighed bør gå foran teknologien.
Her er ugens tre centrale pointer:
- Skrivning er tænkning
Thomas Telving påpeger, at vi risikerer at miste evnen til at tænke klart, hvis vi lader maskinerne formulere vores tanker. - Studerende savner undervisning i AI
Næsten halvdelen af de studerende på Humaniora og Teologi på KU har aldrig modtaget undervisning i korrekt brug af AI. Det efterlader dem i et tomrum uden klare retningslinjer. - Tech-giganterne bestemmer farten
AI-værktøjer flytter ind på elevernes computere uden at have et pædagogisk formål.
Det var de nyheder og artikler, vi havde valgt at skrive om i denne uge. God læselyst med nyhedsbrevet.
ChatGPT skader unges skriftlighed og tænkeevne
Filosoffen Thomas Telving retter i et debatindlæg i Politiken en skarp kritik af OpenAI's udbredelse af ChatGPT og kalder de seneste tre år en gigantisk pædagogisk trafikulykke.
Han sammenligner lanceringen af ChatGPT med at sende 100 millioner biler ud på vejene uden færdselsregler, kørekort og infrastruktur. Hovedpointen er, at når elever bruger AI til at skrive for sig, mister de den sproglige træning, som ifølge filosoffen John Dewey er afgørende for at udvikle klar tænkning.
Han henviser til det velkendte princip om kognitiv aflastning, hvor brugen af en lommeregner gjorde os dårligere til hovedregning, og hvor AI risikerer at svække vores evne til at tænke.
Som modtræk foreslår han tre indsatsområder.
- Styrk elevernes motivation og tilpas evalueringerne, så det ikke kan betale sig at lade AI skrive opgaverne.
- Bevæg jer væk fra generelle chatbots, og udvikl i stedet AI, der er målrettet læring.
- Genoptræn elevernes koncentration gennem faste læsesessioner.
Danskernes brug af generativ AI vokser hurtigt
CAISA, Det Nationale Center for AI i Samfundet, har netop udgivet et forskningsbrief der kortlægger danskernes brug af og holdninger til generativ AI i 2025. Briefet er baseret på en international spørgeskemaundersøgelse med over 2.000 danskere og giver et detaljeret indblik i, hvor hurtigt AI-værktøjer som ChatGPT, Gemini og Copilot er blevet en del af hverdagen for mange.
Brugen er steget markant siden 2024. I 2025 har 34 % af voksne danskere brugt mindst ét AI-værktøj i løbet af den seneste uge, hvilket er en fordobling på blot ét år. ChatGPT er klart mest udbredt, især blandt unge og højtuddannede. Mange bruger AI til at få information eller skabe indhold, mens kun få bruger det til at få nyheder. Samtidig oplever over halvdelen AI-genereret indhold i søgemaskiner uden aktivt at have opsøgt det.
Tilliden til AI er blandet. De mest brugte værktøjer som ChatGPT og Copilot har generelt flere tilhængere end skeptikere, mens AI fra sociale medier som Meta AI og Snapchat møder stor mistillid. Generelt er det dog kun et mindretal, der har en stærk holdning, og næsten halvdelen føler sig ikke godt informeret om AI.
Når det handler om forventninger til AI’s konsekvenser, er danskerne mere optimistiske end borgere i for eksempel Frankrig og Storbritannien. Især unge ser positivt på, hvad AI kan betyde for deres eget liv og samfundet. Men tilliden er lav, når det handler om politikeres og myndigheders brug af AI.
Find hele forskningsbriefet her:
Halvdelen af studerende på HUM og TEO har aldrig fået undervisning i generativ AI
En ny undersøgelse fra Humaniora og Teologi på Københavns Universitet viser, at 46 % af de studerende aldrig har oplevet undervisning med fokus på generativ AI. Dette sker på trods af, at 74 % af dem, der bruger teknologien, aktivt inddrager den i deres studie.
Rapporten, der bygger på svar fra 353 studerende, afslører en klar efterspørgsel efter mere åbenhed. 61 % ønsker at tale om potentialer og risici i undervisningen, og næsten halvdelen er bekymrede for at komme til at overtræde reglerne ved et uheld. De studerende bruger primært chatbots til at få forklaret begreber, brainstorme idéer og udarbejde resuméer, men de savner vejledning i, hvad der er tilladt.
Undersøgelsen peger også på et læringsdilemma, hvor 63 % ser AI som et nyttigt redskab, men mange er bekymrede for balancen mellem hjælp og erstatning for egen indsats. Studerende med ordblindhed fremhæver dog teknologien som særligt frisættende.
Rapporten anbefaler, at universiteterne aftabuiserer emnet og skaber rum for dialog.
Teksten er præciseret for at sikre, at tallene og afgrænsningen til Humaniora og Teologi fremstår helt skarpe.
Manglende styring af AI i skolen skaber bekymring
Radar skriver, at AI-chatbots som Google Gemini og Microsoft Copilot er blevet udrullet på danske skoler, når techgiganterne har besluttet det, uden at skoler eller ministeriet er blevet informeret.
Det har fået Dorte Andreas, formand for Skolelederforeningen, til at efterlyse en klar vision og en tydelig politik på området. Hun opfordrer derfor undervisningsministeren til at inddrage Alliancen for Teknologiforståelse i arbejdet med at formulere de fremtidige rammer.
Undervisningsminister Mattias Tesfaye erkender problemet og vil nu tage kontakt til digitaliseringsministeren og KL for at undgå en gentagelse af tidligere tiders naive digitaliseringsbegejstring.

Eksperter advarer om AI-chatbots i folkeskolen
Politiken skriver, at elever på mange folkeskoler siden oktober har haft direkte adgang til Googles AI via deres skolecomputere, uden at lærere, skoler eller kommuner har taget stilling til, om det overhovedet er pædagogisk forsvarligt.
Det var Jesper Graugaard, der tilfældigt opdagede, at hans søn i 9. klasse brugte Googles chatbot. Den er hurtigt blevet populær blandt eleverne, fordi den leverer analyser og bograpporter på få sekunder i et sprog, der ligner elevopgaver.
Eksperterne i artiklen er enige om, at eleverne skal have et fagligt fundament, før AI giver mening. Birgitte Vedersø advarer om, at for tidlig brug kan svække læring og kognitiv udvikling, fordi AI gør det nemt at springe vigtige læringsprocesser over. Hun peger også på behovet for teknologiforståelse som et obligatorisk fag.
Børne- og undervisningsminister Mattias Tesfaye kalder udviklingen en gentagelse af tidligere tiders naive digitaliseringsbegejstring. Han varsler nu en national drøftelse og dialog med KL og digitaliseringsministeren for at sikre, at skoler ikke igen bliver digitale forsøgskaniner.
Falske Flügger-historier "forgiftede" Googles AI
DR skriver, at falske nyheder om Flügger og sanktioneret maling til Rusland spredte sig i november via hackede hjemmesider i blandt andet Kirgisistan, Kenya og Brasilien. Siderne fik tilføjet manipulerede overskrifter, som Googles robotter opfattede som troværdige. AI-modellen Gemini begyndte derefter at gengive historierne som fakta og afvise DR’s afsløringer som ondsindede beskyldninger.
It-sikkerhedseksperter kalder det AI-forurening. Det betegner en målrettet manipulation hvor falske signaler fra tilsyneladende troværdige kilder får AI-modeller til at acceptere usande fortællinger. Mistanken retter sig mod Rusland som ifølge forskere længe har forsøgt at påvirke chatbots og AI-systemer.
Flügger afviser enhver involvering og Google oplyser at de bekæmper vildledning men ikke kunne genskabe det konkrete eksempel.

AI-sikkerheden halter bagud i forhold til teknologien
Den nyeste rapport fra Future of Life Institute, AI Safety Index Winter 2025, vurderer sikkerhedsarbejdet hos otte af verdens førende AI-virksomheder og konkluderer, at deres sikkerhedsforanstaltninger slet ikke følger med den hurtige udvikling i teknologien.

På en skala, der svarer til det amerikanske karaktersystem, opnår kun tre virksomheder karakteren C eller C+. Det svarer til middel, mens de øvrige får D eller lavere.
Anthropic ligger samlet øverst med karakteren C+ og udmærker sig især i kategorierne informationsdeling (A-) og risikovurdering (B), mens xAI, Meta og Alibaba Cloud er blandt de dårligste til at beskytte mod aktuelle skader og til at implementere grundlæggende sikkerhedsrammer.

Lex skifter til open source med fokus på kontrol og klima
Den danske chatbot Lex, som specialiserer sig i at give adgang til faktabaseret viden, skifter i december 2025 fra ChatGPT til open source-baserede AI-modeller. Bag beslutningen ligger et ønske om øget datasikkerhed, større gennemsigtighed og uafhængighed af amerikanske techgiganter som OpenAI.
De nye modeller som chatbotten fremover baserer sig på er væsentligt mindre end ChatGPT. Det betyder også at svarene i nogle tilfælde kan være af lidt lavere kvalitet. Alligevel fremhæver forskere at skiftet giver en række væsentlige fordele. Modellerne bruger markant færre ressourcer og det resulterer i en væsentligt lavere miljøbelastning.
Samtidig bliver løsningen hostet lokalt. Søgemodellen kører på Aarhus Universitets egne servere og genereringsmodellen hostes i EU.
Opdateret AI-guide til kommunerne
KL har udgivet en opdateret version af deres guide om generativ AI, der giver kommunerne et samlet overblik over, hvordan offentligt tilgængelige AI-tjenester som ChatGPT og Copilot samt kommunernes egne løsninger kan anvendes på en ansvarlig måde. Guiden fungerer som et inspirationsværktøj, der beskriver både teknologiens potentialer og de nødvendige opmærksomhedspunkter i kommunal praksis.
Læs guiden her:
Ugens kommentar: Faglighed før teknologi
Denne uges nyhedsbrev er blandt de mere dystre. Når man læser historierne samlet, dukker det samme spørgsmål op igen og igen: Hvem sikrer egentlig, at det her går godt?
I gymnasieskolen venter vi stadig på klare retningslinjer for, hvordan fagene skal navigere i disse udfordringer. Men samtidig synes al opmærksomhed rettet mod den nye EPX, mens vi må klare os med forældede læreplaner og en skole, der ikke er tilpasset virkeligheden. Ansvaret skubbes over på den enkelte institution, som efterlades uden kompas i et ræs, hvor teknologien ændrer sig uge for uge.
Det pres lander til sidst hos lærerne, som gør, hvad de kan med de ressourcer, de har. Rammerne understøtter dem ikke.
Thomas Telving beskriver de seneste tre år som en “gigantisk pædagogisk trafikulykke”, og det rammer præcist. Ude på skolerne efterlyser alle det samme. Hvordan skal vi navigere i de nye muligheder, når vi ikke selv har fået efteruddannelse i AI?
I det tomrum glemmer vi det vigtigste: Elevernes faglighed kommer før teknologi. Det handler ikke om at fjerne teknologien fra undervisningen, men om at styre den, mens vi danner vores unge til at gennemskue teknologien.
Vi må gøre op med tanken om, at vi kan købe os til nye chatbots, der løser alle vores problemer. I stedet skal vi fokusere på, hvordan vi pædagogisk og didaktisk arbejder med teknologien. Den eneste løsning er at sænke farten. Vi skal turde fastholde, at god undervisning stadig handler om relationer, fordybelse og kritisk tænkning. Det gælder, uanset hvilken AI-model der er populær i denne uge.






