
Ugens nyheder: AI som læringsstøtte, overvågning eller snydeværktøj?
AI bruges i skoler både som læringsstøtte og til overvågning samt snyd. Bør vi omfavne teknologien eller regulere dens anvendelse? Læs om AI's rolle i undervisningen og de tilhørende etiske dilemmaer.
Indholdsfortegnelse
Hermed ugens nyhedsbrev om generativ kunstig intelligens i uddannelsessektoren, hvor vi har udvalgt en række artikler og nyheder fra ind- og udland.
Når vi udvælger indhold til vores nyhedsbrev, fokuserer vi som regel på muligheder og udfordringer i undervisningen. Men i denne uge er vi både bedrøvede og foruroligede over den AI-overvågning, der finder sted på amerikanske skoler. Flere steder er der nemlig indført AI-systemer, som overvåger elevernes skriftlige kommunikation med det formål at forhindre vold, selvskade og mobning. I Europa vil sådanne systemer blive kategoriseret som højrisiko-AI ifølge AI-forordningen, og de vil derfor ikke kunne implementeres lovligt uden omfattende tilpasninger og sikkerhedsforanstaltninger.
På Viden.AI har vi tidligere skrevet om AI-læringsobjekter, og nu har Systime udviklet en række AI-interaktiviteter i deres læremidler, som eleverne kan anvende i undervisningen. Samtidig har Christian Dalsgaard undersøgt gymnasieelevers brug af AI og giver konkrete anbefalinger til, hvordan AI kan integreres læringsfremmende. Omvendt advarer flere undervisere i Kristeligt Dagblad om, at snyd med AI er ude af kontrol på danske gymnasier, og de opfordrer til mere analoge undervisning.
Derudover har vi udvalgt følgende interessante nyheder og artikler:
- Vi har fundet et mindre forskningsstudie, som viser, at en kortvarig introduktion til AI ikke er nok til at få eleverne til at forholde sig mere kritisk til AI’s svar.
- I Danmark er teknologiforståelse primært et valgfag i grundskolen, men integreres også gradvist som et element i forskellige fag på tværs af undervisningen. Kina har derimod vedtaget en national strategi, der målrettet indfører undervisning i kunstig intelligens for aktivt at udvikle teknologiske talenter og styrke landets position i AI-industrien.
- En ny undersøgelse fra Tow Center for Digital Journalism dykker endnu dybere ned i problemstillingen omkring søgning i sprogmodeller. Her påpeger de mange problemer med troværdighed og kildehenvisninger i AI-værktøjer, og at dette nødvendigvis må adresseres i undervisningen.
- Hvis vi i Danmark vil gøre os forhåbninger om at få en god dansk sprogmodel, kræver det i høj grad en masse data til at træne på. Dansk Sprogmodel Konsortium er derfor ude og engagere både offentlige og private organisationer til at donere dansk tekstdata.
- I denne uge blev der også indsendt en AI-genereret forskningsartikel, som bestod peer review, men ikke blev endeligt publiceret. Med meget få klik er det nu muligt at bedrive "forskning" uden menneskelig involvering - hvad gør det ved vores videnssamfund, og er vi på vej mod en videnskrise?
God læselyst – og husk også de artikler, vi ikke nåede at uddybe.
AI-overvågning i amerikanske skoler medfører datasikkerhedsfejl og rejser etiske bekymringer
Flere skoler i USA anvender AI-drevet overvågning til at overvåge elevernes onlineaktivitet og forhindre vold, selvskade og mobning. Systemer som Gaggle scanner elevers skriftlige kommunikation og advarer skolepersonalet om potentielt farlige situationer. Skolerne ser det som en nødvendighed for at beskytte eleverne, men sagen fra Vancouver Public Schools viser, at overvågningen også indebærer alvorlige sikkerhedsrisici.
En fejl i Vancouver medførte, at journalister fik adgang til 3.500 ukrypterede elevdokumenter med følsomme oplysninger. Derudover har AI-overvågning ført til, at LGBTQ+-elever ufrivilligt har fået afsløret deres seksualitet eller kønsidentitet, og elever oplever mistillid til skolen, når deres private tanker overvåges. Kritiske røster påpeger også, at systemet genererer mange falske alarmer og ikke nødvendigvis mindsker risikoen for vold eller selvmord.
Systime udvikler AI-interaktiviteter til gymnasieundervisningen
Med ministeriets nye anbefalinger om brug af generativ AI i gymnasieundervisningen fokuserer Systime på at udvikle AI-baserede interaktiviteter, der understøtter elevernes læring. Inspireret af Christian Dalsgaards forskning har Systime udviklet en strategi, der sikrer, at AI bruges som et læringsfremmende værktøj frem for en erstatning for elevernes egen tænkning.
For at sikre kvalitet og tryghed er interaktiviteterne fagligt afgrænsede, testet af både lærere og elever og designet til at overholde GDPR-krav. Systime understreger, at dialogen med lærere er afgørende for at videreudvikle AI-læremidlerne og sikre, at de støtter elevernes selvstændige læreprocesser.
https://systime.dk/systimenyt/post/vi-skaber-ai-interaktiviteter-der-fremmer-laering
Læreprocesser med generativ AI skal styrkes i gymnasiet
Forsker Christian Dalsgaard har undersøgt, hvordan gymnasieelever anvender generativ AI i deres skolearbejde. I stedet for at fokusere på snyd og plagiat har han analyseret elevernes arbejdsmetoder og læringsprocesser i samarbejde med Aarhus Business College, Herning Gymnasium og Uddannelsescenter Ringkøbing-Skjern.
Hans forskning viser, at eleverne bruger AI til opgaveudarbejdelse, forberedelse, inspiration, tekstrevision, feedback samt til forklaringer og øget forståelse.
Hver af disse metoder kan være både læringsfremmende og læringshæmmende, afhængigt af hvordan AI anvendes. Christian Dalsgaard påpeger, at eleverne ikke primært anvender AI til at kopiere svar, men snarere som en sparringspartner, der hjælper dem med at forstå og strukturere deres arbejde. Han mener, at skolerne bør fokusere på at lære eleverne at navigere i balancen mellem at anvende AI som en læringsstøtte og undgå en ukritisk afhængighed af teknologien. Han argumenterer for, at vi skal bevæge os væk fra et sort-hvidt syn på snyd og i stedet fokusere på de læreprocesser, AI styrker.

AI-snyd blandt elever er ude af kontrol
Undervisere på danske gymnasier oplever en markant stigning i snyd ved hjælp af AI - særligt ChatGPT.
"Det er faldet som en bombe over hele ungdomsuddannelsesområdet. Det har været helt horribelt det seneste år, hvor hurtigt det er gået," siger Anne Solbjerg, dansklærer på Frederikssund Gymnasium.
Flere undervisere bekræfter, at eleverne præsterer markant bedre hjemme end ved eksamenslignende prøver, hvilket tyder på omfattende brug af AI.
Ifølge lærerne rammer problemet især fagligt svage elever, som i forvejen har svært ved at udtrykke sig skriftligt. Elever bekræfter, at ChatGPT er blevet et udbredt redskab, og nogle bruger det til at sikre høje karakterer eller kompensere for manglende selvtillid.
Som reaktion begynder flere gymnasier at vende tilbage til håndskrevne afleveringer og analoge prøver.
"Jeg opfordrer til en massiv analog modoffensiv. Tilbage til pen og papir, om de så først skal lære at skrive i hånden igen. Ellers lærer de bare ikke noget mere." siger lektor Mikael Busch til Kristeligt Dagblad.
Undervisningsminister Mattias Tesfaye påpeger til Kristeligt Dagblad, at regeringen har udgivet anbefalinger til brug af AI i undervisningen og overvejer at øge brugen af pen-og-papir-prøver.

Bag betalingsmur
Kortvarig AI-undervisning ændrer ikke elevers brug af ChatGPT
En mindre undersøgelse fra University of Tartu i Estland peger på, at en kort introduktion til AI ikke mindsker gymnasieelevers tendens til ukritisk at stole på ChatGPT, selv når modellen giver forkerte svar.
Studiet omfattede 36 estiske gymnasieelever, der blev inddelt i to grupper: en kontrolgruppe og en interventionsgruppe, som modtog undervisningsmateriale om ChatGPT’s begrænsninger og om, hvordan man anvender AI kritisk. Herefter skulle eleverne løse matematikopgaver ved hjælp af ChatGPT, hvor halvdelen af modellens svar bevidst var forkerte.
Resultaterne viste, at eleverne i gennemsnit accepterede forkerte svar i 52,1 % af tilfældene, hvilket peger på en udbredt overafhængighed af ChatGPT. Overraskende nok mindskede undervisningen ikke afhængigheden, men førte i stedet til, at eleverne oftere afviste ChatGPT’s korrekte svar.
Studiet konkluderer, at en kort AI-læseforståelsesintervention ikke er tilstrækkelig til at mindske afhængigheden af AI-baserede anbefalinger. For at eleverne kan udvikle en kritisk tilgang til AI, er der behov for mere omfattende og systematiske læringsforløb, der ikke blot forklarer AI’s begrænsninger, men også træner dem i at tænke langsommere og mere analytisk.

Kina indfører AI-undervisning i grundskolen for at styrke teknologisk førerposition
Fra september vil skoler i Beijing introducere AI-kurser i både folkeskoler og gymnasier som en del af en national strategi til at udvikle teknologiske talenter og fremme Kinas AI-industri. Undervisningen vil omfatte mindst otte timer om året og blive integreret i fag som IT og naturvidenskab.
Kinas uddannelsesmyndigheder planlægger at samarbejde med universiteter, tech-virksomheder og forskningsinstitutioner for at udvikle kurser og skabe innovative læringsmiljøer med AI-assisteret undervisning. AI vil ikke kun blive brugt som undervisningsværktøj, men også blive en del af fritidsaktiviteter, forskningsprojekter og efter-skole-tjenester.
På grundskoleniveau vil fokus være på at udvikle elevernes AI-tænkning, mens gymnasieelever vil få mere praktiske kurser med fokus på AI-applikationer og innovation. Derudover vil AI-etik blive en del af undervisningen for at sikre, at eleverne lærer at bruge generativ AI ansvarligt og forsvarligt.

AI-baserede søgemaskiner har et alvorligt kildeproblem
En ny undersøgelse fra Tow Center for Digital Journalism, på Columbia University i New York, afslører alvorlige problemer med kildehenvisninger i AI-baserede søgemaskiner. Forskerne testede otte AI-søgeværktøjer og fandt, at de ofte forvrænger nyhedsindhold, ignorerer udgiveres blokeringer og genererer falske kildehenvisninger.

Studiet viste, at AI-chatbots i 60 % af tilfældene gav forkerte svar - ofte med en overbevisende sikkerhed. Premium-versioner af chatbots præsterede ikke nødvendigvis bedre, men var oftere tilbøjelige til at give fejlagtige, men selvsikre svar.
Desuden ignorerede flere AI-modeller webudgiveres blokeringer, hvilket betød, at de hentede information fra kilder, der havde forsøgt at udelukke dem.
Et andet problem er, at AI-værktøjer ofte fejlagtigt tilskriver nyhedsindhold til de forkerte kilder eller linker til forkerte eller ikke-eksisterende URL’er, hvilket underminerer både troværdigheden af deres svar og nyhedsmediernes mulighed for at få trafik og indtægter. Selv når AI-virksomheder har licensaftaler med nyhedsudgivere, er det ikke ensbetydende med, at deres indhold bliver korrekt citeret.
Konklusionen er, at AI-baserede søgemaskiner stadig har store udfordringer med præcision, transparens og kildehenvisning – hvilket kan have alvorlige konsekvenser for både nyhedsmedier og brugere, der stoler på AI til informationssøgning.


Danske sprogmodeller kræver dansk data - meget data!
For at udvikle sprogmodeller, der fungerer optimalt i en dansk kontekst, er der behov for store mængder danske tekstdata. Hvis ikke, risikerer Danmark at sakke bagud i den globale AI-udvikling. Regeringens strategi for AI understreger vigtigheden af ansvarlig dataindsamling, men eksperter påpeger, at dette alene ikke er nok.
Derfor arbejder Dansk Sprogmodel Konsortium aktivt på at engagere både offentlige og private organisationer til at donere danske tekstdata. Målet er at sikre, at AI-modeller udviklet i Danmark skaber reel værdi for både virksomheder og samfundet.
Organisationer, der ønsker at bidrage, kan tilmelde sig via Dansk Sprogmodel Konsortiums hjemmeside.

AI-genereret forskningsartikel bestod peer review
En videnskabelig artikel skabt af Sakana AIs system bestod peer review ved en AI-workshop, før den blev trukket tilbage som en del af et planlagt eksperiment. Dette markerer første gang, at en fuldt AI-genereret forskningsartikel har bestået en standard fagfællebedømmelse.
Eksperimentet viser både potentialet og begrænsningerne ved AI-genererede forskningsartikler og rejser vigtige spørgsmål om, hvordan videnskabelige tidsskrifter skal håndtere denne teknologi i fremtiden.

Ugens andre nyheder








