Matomo

spring til indhold

Ugens nyheder: AI som læringsstøtte, overvågning eller snydeværktøj?

AI bruges i skoler både som læringsstøtte og til overvågning samt snyd. Bør vi omfavne teknologien eller regulere dens anvendelse? Læs om AI's rolle i undervisningen og de tilhørende etiske dilemmaer.

· 13 minut læses

Indholdsfortegnelse

Hermed ugens nyhedsbrev om generativ kunstig intelligens i uddannelsessektoren, hvor vi har udvalgt en række artikler og nyheder fra ind- og udland.

Når vi udvælger indhold til vores nyhedsbrev, fokuserer vi som regel på muligheder og udfordringer i undervisningen. Men i denne uge er vi både bedrøvede og foruroligede over den AI-overvågning, der finder sted på amerikanske skoler. Flere steder er der nemlig indført AI-systemer, som overvåger elevernes skriftlige kommunikation med det formål at forhindre vold, selvskade og mobning. I Europa vil sådanne systemer blive kategoriseret som højrisiko-AI ifølge AI-forordningen, og de vil derfor ikke kunne implementeres lovligt uden omfattende tilpasninger og sikkerhedsforanstaltninger.

På Viden.AI har vi tidligere skrevet om AI-læringsobjekter, og nu har Systime udviklet en række AI-interaktiviteter i deres læremidler, som eleverne kan anvende i undervisningen. Samtidig har Christian Dalsgaard undersøgt gymnasieelevers brug af AI og giver konkrete anbefalinger til, hvordan AI kan integreres læringsfremmende. Omvendt advarer flere undervisere i Kristeligt Dagblad om, at snyd med AI er ude af kontrol på danske gymnasier, og de opfordrer til mere analoge undervisning.

Derudover har vi udvalgt følgende interessante nyheder og artikler:

  • Vi har fundet et mindre forskningsstudie, som viser, at en kortvarig introduktion til AI ikke er nok til at få eleverne til at forholde sig mere kritisk til AI’s svar.
  • I Danmark er teknologiforståelse primært et valgfag i grundskolen, men integreres også gradvist som et element i forskellige fag på tværs af undervisningen. Kina har derimod vedtaget en national strategi, der målrettet indfører undervisning i kunstig intelligens for aktivt at udvikle teknologiske talenter og styrke landets position i AI-industrien.
  • En ny undersøgelse fra Tow Center for Digital Journalism dykker endnu dybere ned i problemstillingen omkring søgning i sprogmodeller. Her påpeger de mange problemer med troværdighed og kildehenvisninger i AI-værktøjer, og at dette nødvendigvis må adresseres i undervisningen.
  • Hvis vi i Danmark vil gøre os forhåbninger om at få en god dansk sprogmodel, kræver det i høj grad en masse data til at træne på. Dansk Sprogmodel Konsortium er derfor ude og engagere både offentlige og private organisationer til at donere dansk tekstdata.
  • I denne uge blev der også indsendt en AI-genereret forskningsartikel, som bestod peer review, men ikke blev endeligt publiceret. Med meget få klik er det nu muligt at bedrive "forskning" uden menneskelig involvering - hvad gør det ved vores videnssamfund, og er vi på vej mod en videnskrise?

God læselyst – og husk også de artikler, vi ikke nåede at uddybe.


AI-overvågning i amerikanske skoler medfører datasikkerhedsfejl og rejser etiske bekymringer

Flere skoler i USA anvender AI-drevet overvågning til at overvåge elevernes onlineaktivitet og forhindre vold, selvskade og mobning. Systemer som Gaggle scanner elevers skriftlige kommunikation og advarer skolepersonalet om potentielt farlige situationer. Skolerne ser det som en nødvendighed for at beskytte eleverne, men sagen fra Vancouver Public Schools viser, at overvågningen også indebærer alvorlige sikkerhedsrisici.

En fejl i Vancouver medførte, at journalister fik adgang til 3.500 ukrypterede elevdokumenter med følsomme oplysninger. Derudover har AI-overvågning ført til, at LGBTQ+-elever ufrivilligt har fået afsløret deres seksualitet eller kønsidentitet, og elever oplever mistillid til skolen, når deres private tanker overvåges. Kritiske røster påpeger også, at systemet genererer mange falske alarmer og ikke nødvendigvis mindsker risikoen for vold eller selvmord.

Schools use AI to monitor kids, hoping to prevent violence. Our investigation found security risks
Schools are turning to AI-powered surveillance technology to monitor students on school-issued devices like laptops and tablets.

Systime udvikler AI-interaktiviteter til gymnasieundervisningen

Med ministeriets nye anbefalinger om brug af generativ AI i gymnasieundervisningen fokuserer Systime på at udvikle AI-baserede interaktiviteter, der understøtter elevernes læring. Inspireret af Christian Dalsgaards forskning har Systime udviklet en strategi, der sikrer, at AI bruges som et læringsfremmende værktøj frem for en erstatning for elevernes egen tænkning.

For at sikre kvalitet og tryghed er interaktiviteterne fagligt afgrænsede, testet af både lærere og elever og designet til at overholde GDPR-krav. Systime understreger, at dialogen med lærere er afgørende for at videreudvikle AI-læremidlerne og sikre, at de støtter elevernes selvstændige læreprocesser.

https://systime.dk/systimenyt/post/vi-skaber-ai-interaktiviteter-der-fremmer-laering


Læreprocesser med generativ AI skal styrkes i gymnasiet

Forsker Christian Dalsgaard har undersøgt, hvordan gymnasieelever anvender generativ AI i deres skolearbejde. I stedet for at fokusere på snyd og plagiat har han analyseret elevernes arbejdsmetoder og læringsprocesser i samarbejde med Aarhus Business College, Herning Gymnasium og Uddannelsescenter Ringkøbing-Skjern.

Hans forskning viser, at eleverne bruger AI til opgaveudarbejdelse, forberedelse, inspiration, tekstrevision, feedback samt til forklaringer og øget forståelse.

Hver af disse metoder kan være både læringsfremmende og læringshæmmende, afhængigt af hvordan AI anvendes. Christian Dalsgaard påpeger, at eleverne ikke primært anvender AI til at kopiere svar, men snarere som en sparringspartner, der hjælper dem med at forstå og strukturere deres arbejde. Han mener, at skolerne bør fokusere på at lære eleverne at navigere i balancen mellem at anvende AI som en læringsstøtte og undgå en ukritisk afhængighed af teknologien. Han argumenterer for, at vi skal bevæge os væk fra et sort-hvidt syn på snyd og i stedet fokusere på de læreprocesser, AI styrker.

Læreprocesser med generativ AI skal styrkes
Har du en idé til en ny udgivelse? Hos Systime er vi altid på udkig efter nye og kreative forfattere. Måske din idé er den, vi står og mangler.

AI-snyd blandt elever er ude af kontrol

Undervisere på danske gymnasier oplever en markant stigning i snyd ved hjælp af AI - særligt ChatGPT.

"Det er faldet som en bombe over hele ungdomsuddannelsesområdet. Det har været helt horribelt det seneste år, hvor hurtigt det er gået," siger Anne Solbjerg, dansklærer på Frederikssund Gymnasium.

Flere undervisere bekræfter, at eleverne præsterer markant bedre hjemme end ved eksamenslignende prøver, hvilket tyder på omfattende brug af AI.

Ifølge lærerne rammer problemet især fagligt svage elever, som i forvejen har svært ved at udtrykke sig skriftligt. Elever bekræfter, at ChatGPT er blevet et udbredt redskab, og nogle bruger det til at sikre høje karakterer eller kompensere for manglende selvtillid.

Som reaktion begynder flere gymnasier at vende tilbage til håndskrevne afleveringer og analoge prøver.

"Jeg opfordrer til en massiv analog modoffensiv. Tilbage til pen og papir, om de så først skal lære at skrive i hånden igen. Ellers lærer de bare ikke noget mere." siger lektor Mikael Busch til Kristeligt Dagblad.

Undervisningsminister Mattias Tesfaye påpeger til Kristeligt Dagblad, at regeringen har udgivet anbefalinger til brug af AI i undervisningen og overvejer at øge brugen af pen-og-papir-prøver.

Advarsel fra undervisere: Elevers snyd med kunstig intelligens er eksploderet
En række undervisere på ungdomsuddannelserne oplever, at den skriftlige faglighed er i frit fald. Kunstig intelligens har på få år normaliseret snyd i en grad, der frygtes at skade de unges fremtidige muligheder

Bag betalingsmur


Kortvarig AI-undervisning ændrer ikke elevers brug af ChatGPT

En mindre undersøgelse fra University of Tartu i Estland peger på, at en kort introduktion til AI ikke mindsker gymnasieelevers tendens til ukritisk at stole på ChatGPT, selv når modellen giver forkerte svar.

Studiet omfattede 36 estiske gymnasieelever, der blev inddelt i to grupper: en kontrolgruppe og en interventionsgruppe, som modtog undervisningsmateriale om ChatGPT’s begrænsninger og om, hvordan man anvender AI kritisk. Herefter skulle eleverne løse matematikopgaver ved hjælp af ChatGPT, hvor halvdelen af modellens svar bevidst var forkerte.

Resultaterne viste, at eleverne i gennemsnit accepterede forkerte svar i 52,1 % af tilfældene, hvilket peger på en udbredt overafhængighed af ChatGPT. Overraskende nok mindskede undervisningen ikke afhængigheden, men førte i stedet til, at eleverne oftere afviste ChatGPT’s korrekte svar.

Studiet konkluderer, at en kort AI-læseforståelsesintervention ikke er tilstrækkelig til at mindske afhængigheden af AI-baserede anbefalinger. For at eleverne kan udvikle en kritisk tilgang til AI, er der behov for mere omfattende og systematiske læringsforløb, der ikke blot forklarer AI’s begrænsninger, men også træner dem i at tænke langsommere og mere analytisk.

Short-term AI literacy intervention does not reduce over-reliance on incorrect ChatGPT recommendations
In this study, we examined whether a short-form AI literacy intervention could reduce the adoption of incorrect recommendations from large language models. High school seniors were randomly assigned to either a control or an intervention group, which received an educational text explaining ChatGPT’s working mechanism, limitations, and proper use. Participants solved math puzzles with the help of ChatGPT’s recommendations, which were incorrect in half of the cases. Results showed that students adopted incorrect suggestions 52.1% of the time, indicating widespread over-reliance. The educational intervention did not significantly reduce over-reliance. Instead, it led to an increase in ignoring ChatGPT’s correct recommendations. We conclude that the usage of ChatGPT is associated with over-reliance and it is not trivial to increase AI literacy to counter over-reliance.

Kina indfører AI-undervisning i grundskolen for at styrke teknologisk førerposition

Fra september vil skoler i Beijing introducere AI-kurser i både folkeskoler og gymnasier som en del af en national strategi til at udvikle teknologiske talenter og fremme Kinas AI-industri. Undervisningen vil omfatte mindst otte timer om året og blive integreret i fag som IT og naturvidenskab.

Kinas uddannelsesmyndigheder planlægger at samarbejde med universiteter, tech-virksomheder og forskningsinstitutioner for at udvikle kurser og skabe innovative læringsmiljøer med AI-assisteret undervisning. AI vil ikke kun blive brugt som undervisningsværktøj, men også blive en del af fritidsaktiviteter, forskningsprojekter og efter-skole-tjenester.

På grundskoleniveau vil fokus være på at udvikle elevernes AI-tænkning, mens gymnasieelever vil få mere praktiske kurser med fokus på AI-applikationer og innovation. Derudover vil AI-etik blive en del af undervisningen for at sikre, at eleverne lærer at bruge generativ AI ansvarligt og forsvarligt.

Revolution i grundskolen i Kina: Kunstig intelligens i stedet for den lille tabel
Inden 2030 skal alle kinesiske skoler undervise i kunstig intelligens helt ned på førsteklasses niveau.
China to launch AI courses for primary, secondary school students
The move, which will see schools providing at least eight hours of AI classes a year, furthers China’s AI ambitions.
China’s capital city is making AI education mandatory, even for elementary schoolers
Beijing’s decision to make AI education mandatory comes as China powers ahead in the AI race, with its homegrown startups gaining global attention.

AI-baserede søgemaskiner har et alvorligt kildeproblem

En ny undersøgelse fra Tow Center for Digital Journalism, på Columbia University i New York, afslører alvorlige problemer med kildehenvisninger i AI-baserede søgemaskiner. Forskerne testede otte AI-søgeværktøjer og fandt, at de ofte forvrænger nyhedsindhold, ignorerer udgiveres blokeringer og genererer falske kildehenvisninger.

Kilde: Tow Center for Digital Journalism

Studiet viste, at AI-chatbots i 60 % af tilfældene gav forkerte svar - ofte med en overbevisende sikkerhed. Premium-versioner af chatbots præsterede ikke nødvendigvis bedre, men var oftere tilbøjelige til at give fejlagtige, men selvsikre svar.

Desuden ignorerede flere AI-modeller webudgiveres blokeringer, hvilket betød, at de hentede information fra kilder, der havde forsøgt at udelukke dem.

Et andet problem er, at AI-værktøjer ofte fejlagtigt tilskriver nyhedsindhold til de forkerte kilder eller linker til forkerte eller ikke-eksisterende URL’er, hvilket underminerer både troværdigheden af deres svar og nyhedsmediernes mulighed for at få trafik og indtægter. Selv når AI-virksomheder har licensaftaler med nyhedsudgivere, er det ikke ensbetydende med, at deres indhold bliver korrekt citeret.

Konklusionen er, at AI-baserede søgemaskiner stadig har store udfordringer med præcision, transparens og kildehenvisning – hvilket kan have alvorlige konsekvenser for både nyhedsmedier og brugere, der stoler på AI til informationssøgning.

AI Search Has A Citation Problem
We Compared Eight AI Search Engines. They’re All Bad at Citing News.
The Dark Side of AI Search Nobody’s Telling You About (But Should)
A February 2025 BBC study reveals why we should all be at least a little worried about searching with AI

Danske sprogmodeller kræver dansk data - meget data!

For at udvikle sprogmodeller, der fungerer optimalt i en dansk kontekst, er der behov for store mængder danske tekstdata. Hvis ikke, risikerer Danmark at sakke bagud i den globale AI-udvikling. Regeringens strategi for AI understreger vigtigheden af ansvarlig dataindsamling, men eksperter påpeger, at dette alene ikke er nok.

Derfor arbejder Dansk Sprogmodel Konsortium aktivt på at engagere både offentlige og private organisationer til at donere danske tekstdata. Målet er at sikre, at AI-modeller udviklet i Danmark skaber reel værdi for både virksomheder og samfundet.

Organisationer, der ønsker at bidrage, kan tilmelde sig via Dansk Sprogmodel Konsortiums hjemmeside.

Kom med i Dansk Sprogmodel Konsortium - Alexandra Instituttet
Vær med til at sætte skub i udviklingen af ansvarlige, danske sprogmodeller! Dansk Sprogmodel Konsortium er et værdibaseret fællesskab, der er åbent for alle, der kan tilslutte sig dets formål og principper.

AI-genereret forskningsartikel bestod peer review

En videnskabelig artikel skabt af Sakana AIs system bestod peer review ved en AI-workshop, før den blev trukket tilbage som en del af et planlagt eksperiment. Dette markerer første gang, at en fuldt AI-genereret forskningsartikel har bestået en standard fagfællebedømmelse.

Eksperimentet viser både potentialet og begrænsningerne ved AI-genererede forskningsartikler og rejser vigtige spørgsmål om, hvordan videnskabelige tidsskrifter skal håndtere denne teknologi i fremtiden.

AI-generated paper passes peer review before planned withdrawal
A scientific paper generated by Sakana AI’s system passed peer review at an AI workshop before being withdrawn as planned.

Ugens andre nyheder

With AI Changing Everything, Here’s How Teachers Can Shape the New Culture of Learning | KQED
The impact of artificial intelligence is growing, and that means educators and parents must keep a closer eye on how learning is evolving as well.
No End in Sight for AI’s Invasion into Higher Education
Perhaps the AI apocalypse will paradoxically encourage educators to adopt more traditional approaches to teaching and giving assignments.
Vi skal blive endnu dygtigere til at bruge det. Ellers kommer vi til at leve i USA og Kinas verden
Vi må ikke lade frygten for kunstig intelligens lamme os. I fremtiden giver teknologien nemlig mennesket superkræfter, siger journalist og forfatter til ny bog om kunstig intelligens.
OpenAI declares AI race “over” if training on copyrighted works isn’t fair use
National security hinges on unfettered access to AI training data, OpenAI says.
Kan man forhindre snyd til eksamen? Skoler skal blive klogere på kunstig intelligens
245 skoleledere og IT-ansvarlige på landets frie skoler på skolebænken i Nyborg for at blive klogere på kunstig intelligens.
Flere AI-kompetencer på vej til professionsfagene
Quizmaster, resumeskriver, hjælpelærer: Kunstig intelligens kan indtage mange roller i undervisningen på professionshøjskolerne – og ude i praksis. Nu skal et nyt projekt sikre, at underviserne får de rigtige kompetencer til at ruste de studerende til en virkelighed, hvor teknologien tænker med.
Kommuner melder klart ud: Copilot og ChatGPT frigør ikke arbejdskraft | Version2
Hverken regeringen, KL eller kommunerne regner med, at det er de allermest hypede AI-løsninger, som kan frigøre arbejdskraft i det offentlige. Det kræver, at kunstig intelligens kommer meget tættere på borgeren, men GDPR spænder ben.
University students describe how they adopt AI for writing and research in a general education course - Scientific Reports
Scientific Reports - University students describe how they adopt AI for writing and research in a general education course
AI summaries are coming to Notepad
Drawing shapes is getting easier, too.
AI’s Power to Pace Learning
AI isn’t just a gas pedal for learning. Its real power is in modulating speed, balancing rapid insight with deep, meaningful understanding.

Seneste