Matomo

spring til indhold

Ugens nyheder: Snyd med AI sætter uddannelserne under pres

AI-snyd breder sig i uddannelsessystemet – fra gymnasiet til universitetet. Lærere føler sig magtesløse over for elever, der bruger ChatGPT til opgaver og tilpasser AI-output, så det fremstår som deres egen stemme. Skoler genindfører håndskrevne opgaver, mens eksperter efterlyser nye prøveformer.

· 12 minut læses

Indholdsfortegnelse

I denne uges nyhedsbrev har vi fundet en række artikler, der omhandler hele problematikken omkring snyd med AI i dagligdagen og til eksamener.

Men inden vi kommer dertil, vil vi lige rette fokus mod Undervisningsministeriet, der lancerede fire nye AI-initiativer i gymnasiet. I den forbindelse interviewede Gymnasieskolen mig, og herunder kan man læse min og Sine Zambachs kritik af tempoet og omfanget.

Ministeriet sætter AI-initiativer i gang – for lidt og for langsomt lyder kritikken

Fokus på snyd

Når vi finder nyheder og artikler, har vi ikke valgt et fokus på forhånd, men i sidste uge var det åbenbart snyd, der var på dagsordenen. Vi tænker, det hænger meget godt sammen med tidspunktet på året, for vi er i en tid, hvor uddannelserne afslutter deres skoleår.

Weekendavisen har en stor artikel, der omhandler det massive snyd, der er med AI i gymnasiet, hvor både undervisere og formanden for GL udtaler sig. Artiklen berører et område, vi bevidst har valgt ikke at udgive noget om på Viden.AI, nemlig det at kunne tilpasse AI, så det fremstår som ens egen stemme. Vi har faktisk skrevet et blogindlæg med vores teknologiske indsigter, men det ligger i skuffen, og der bliver det, fordi det vil kunne misbruges.

I folkeskolen er der også udfordringer. Ifølge Thomas Balle Roswall, lærer på Nordsjællands Efterskole, måler vi ikke det, vi tror, vi måler – samtidig tester vi ikke elevernes evne til at fordybe sig. Vi tester i stedet deres evne til at huske det, som AI siger, de skal sige. Igen efterlyses nye prøveformer, der afspejler den teknologiske virkelighed på skolerne.

Det bringer os over til en anden ret interessant artikel fra Weekendavisen, der omhandler, hvad danskerne egentlig bruger ChatGPT til. Og det er meget forskelligt, og læsere af vores blog vil sikkert kunne genkende sig selv i nogle af beskrivelserne. Om ikke andet, så vil alle undervisere kunne identificere den 18-årige gymnasieelev, der bruger det som “afleveringsknuseren”.

Vi bevæger os lige til udlandet, hvor de også diskuterer hele problematikken om snyd med AI.

Udfordringer med ophavsret

Imens vi diskuterer snyd, så uploader eleverne flere og flere studiebøger til for eksempel ChatGPT. RettighedsAlliancen har netop udgivet en stor rapport lavet af Epinion. Her ved 72 % af de studerende ikke, at det er ulovligt. Det tyder på, at der er et misforhold mellem, hvordan de studerende bruger teknologien, og hvad loven siger. Måske ligger løsningen ikke kun i at håndhæve eksisterende regler, men også i at finde nye måder at balancere uddannelsesmæssige behov med rettighedshavernes interesser.

Tech-nyheder

Som en tilføjelse til nyhedsbrevet har vi lavet en oversigt over de nyeste AI-nyheder fra techverdenen. Her kan du hurtigt danne dig et overblik. Denne sektion er ikke særligt målrettet undervisere, men den giver et indblik i et hypet teknologitog, der buldrer derudad.

Derudover har vi ugens andre nyheder.

God læselyst!


Snyd med AI i gymnasiet: Lærere efterlyser politisk handling

Gymnasielærerne Anne Solbjerg og Stefan Flensmark advarer i Weekendavisen om, hvordan elever i stigende grad bruger AI til at snyde i skriftlige opgaver. Begge beskriver en udbredt følelse af magtesløshed blandt lærere, hvor teknologier som ChatGPT og Claude gør det svært at vurdere, hvad eleverne selv har skrevet.

Anne Solbjerg oplever, at eleverne hurtigt har lært at tilpasse AI-output, så det fremstår som deres egen stemme. Stefan Flensmark understreger, at det ofte er de dygtigste elever, som snyder mest effektivt, fordi de formår at bruge AI strategisk og diskret – hvilket gør det næsten umuligt at opdage.

»Det er noget, lærerne river sig i håret over. Hele tiden. Og vi føler os magtesløse,« Anne Solbjerg.

Nogle elever træner AI-modeller på egne tidligere tekster for at gøre sproget mere personligt, mens andre bruger AI til at rette og forbedre deres opgaver. Ifølge Stefan Flensmark ser lærerne et stort gab mellem kvaliteten af hjemmeopgaver og opgaver skrevet under eksamenslignende forhold, hvilket skaber mistillid og udfordrer undervisningens formål. Han bemærker også, at mange elever benytter sig af såkaldt “hybridskrivning”, hvor AI bruges til udvalgte tekstdele, hvilket gør det endnu sværere at vurdere graden af selvstændighed.

Flere skoler reagerer nu ved at genindføre håndskrevne opgaver og eksamener uden computeradgang. I nogle fag bliver computere helt forbudt til eksamen, hvilket ændrer undervisningens struktur og stiller nye krav til elevernes håndskrift.

Formanden for Gymnasieskolernes Lærerforening, Anders Frikke, bekræfter lærernes bekymringer og efterlyser politisk handling. Han peger på behovet for en national eksamensreform, der hurtigt og målrettet tilpasses AI’s indflydelse i undervisningen.

En lille hjælper | Weekendavisen
Snyd. »Det er noget, lærerne river sig i håret over. Hele tiden. Og vi føler os magtesløse.« Kunstig intelligens har vendt op og ned på gymnasierne.

Bag betalingsmur


AI og afgangsprøver i folkeskolen

AI-værktøjer som ChatGPT skaber nye udfordringer for integriteten af folkeskolens afgangsprøver. Lærere og censorer oplever, at det er blevet lettere for elever at snyde, især fordi AI-genererede tekster ofte er unikke og derfor ikke kan opdages som traditionelt plagiat. En undersøgelse blandt lærere viser, at næsten hver tredje oplever mere snyd end tidligere. Mange skoler har derfor indført en række tekniske og praktiske tiltag for at modvirke dette.

Tiltagene omfatter blandt andet realtidsovervågning af computere, inddragelse af mobiltelefoner, brug af programmer til at analysere dokumenthistorik samt firewalls, der blokerer adgang til AI-tjenester. Lærerne har dog begrænsede muligheder for at følge op på mistanker, da bedømmelsen af skriftlige prøver foretages eksternt. Dette gør det vanskeligt at opdage, hvis en elev præsterer på et niveau, der afviger markant fra det forventede.

»Lige nu måler vi ikke det, vi tror, vi måler. Vi tester ikke elevernes evne til at fordybe sig. Vi tester deres evne til at huske det, som AI siger, at de skal sige.« Thomas Balle Roswall

Ved mundtlige prøver, især i dansk, er det ifølge lærere endnu sværere at kontrollere brugen af AI i forberedelsesfasen. Det skaber tvivl om, hvorvidt prøverne reelt tester elevernes faglige kompetencer eller blot deres evne til at gengive indhold genereret af AI. Det rejser også spørgsmål om ligestilling, da adgang til AI potentielt kan udligne forskelle i hjemmets akademiske ressourcer.

Eksperter og lærere peger på behovet for en reform af prøveformerne. De opfordrer til, at ministeriet handler hurtigt for at justere eksamenssystemet, så det afspejler den teknologiske virkelighed og enten integrerer AI-værktøjer eller udvikler nye prøveformer, der sikrer reelle elevpræstationer.

Sådan gør skolerne: ”Det er naivt at tro, at eleverne ikke bruger AI til prøven”
Den teknologiske udvikling har ændret mulighederne for at snyde til grundskolens afgangsprøver. Lærerne fortæller om nye tiltag på skolerne.

Hvad bruger danskerne ChatGPT til?

I en artikel i Weekendavisen præsenteres en række personlige fortællinger fra danskere, der på meget forskellige måder har brugt ChatGPT i deres dagligdag.

Det spænder fra en eksistentiel erhvervscoach, der bruger AI som kreativ sparringspartner, til en gymnasieelev, der anvender den som støtte til opgaveskrivning, men med kritisk sans. Flere brugere udtrykker dog en vis ambivalens, da de ved, at de taler med en maskine, men alligevel oplever en form for relation og forståelse.

Det understreger, hvordan AI er begyndt at udfordre grænserne for, hvad vi normalt forbinder med menneskelig interaktion og rådgivning.

Danskerne og deres kunstige intelligens | Weekendavisen
Vidnesbyrd. Ni danskere fortæller, hvilken rolle ChatGPT udfylder i deres liv.

Snyd eller læring? 

WIRED-podcasten Uncanny Valley diskuterer, hvordan AI, især ChatGPT, påvirker vores syn på snyderi og læring i skolen.

Gennem refleksioner, personlige erfaringer og konkrete eksempler diskuterer værterne, hvornår brugen af AI er et nyttigt læringsredskab, og hvornår den overskrider grænsen til snyderi. Det fremhæves også, hvordan både studerende og undervisere eksperimenterer med AI. Nogle lærere anvender det til at forberede undervisning eller give feedback, mens elever benytter det til at forbedre essays eller simulere deres egen stemme.

Diskussionen berører også de værktøjer, der anvendes til at undgå AI-detektion, samt behovet for bedre AI-læsefærdigheder blandt elever og fælles retningslinjer på uddannelsesinstitutioner.

I podcasten efterlyses der løsninger som balancerer brugen af AI med krav til faglighed såsom mundtlige prøver, diskussionsbaserede opgaver og undervisning i AI-etik og AI-brug.

Podcasten konkluderer, at det ikke er AI i sig selv, der er problemet, men hvordan vi som samfund vælger at anvende og regulere den i undervisningen.

Let’s Talk About ChatGPT and Cheating in the Classroom
Today on “Uncanny Valley,” we address one of the most pressing questions in education right now: What constitutes cheating at school in today’s world of AI?

Studerende bruger AI til omfattende snyd – og det ændrer hele uddannelsessystemet

En artikel fra New York Magazine beskriver, hvordan brugen af generativ AI til snyd er blevet hverdag på amerikanske universiteter. Studerende som Chungin “Roy” Lee fra Columbia University indrømmer, at de lader AI skrive størstedelen af deres opgaver. AI bruges ikke kun til at lave lektier, men også til at snyde ved jobinterviews ved hjælp af værktøjer, der skjuler AI-assistance for arbejdsgivere. Et stigende antal studerende – også på topuniversiteter – bruger AI til næsten alle akademiske opgaver, fra essay-skrivning til kodning og eksamensforberedelse.

Flere undervisere fortæller om studerende, der afleverer åbenlyst AI-genererede opgaver, men universiteternes politikker og teknologiske begrænsninger gør det vanskeligt at gribe ind. Situationen får nogle undervisere til at overveje deres fremtid i faget.

Udbredelsen af AI-snyd har ikke kun konsekvenser for faglighed og karaktergivning – den påvirker selve forståelsen af, hvad uddannelse er.

Med AI’s stigende rolle i både opgaveløsning og feedbackprocesser risikerer undervisning at blive reduceret til en dialog mellem to maskiner – med den studerende som mellemled.

Everyone Is Cheating Their Way Through College
ChatGPT has unraveled the entire academic project.

Studerende uploader studiebøger til chatbots uden kendskab til ophavsret

En ny undersøgelse fra Epinion, udført for RettighedsAlliancen, viser, at ulovlig deling af studiebøger fortsat er udbredt blandt studerende, og at AI-teknologi nu spiller en central rolle i denne praksis. 25 % af de adspurgte studerende har uploadet hele studiebøger eller uddrag heraf til en chatbot – ofte uden at være klar over, at det er ulovligt. Kun 28 % af de studerende kender de ophavsretlige regler på området, og tre ud af fire (72 %) er uvidende om, at det er ulovligt at uploade studiebøger til AI-chatbots.

Læs hele undersøgelsen her: 

Hver fjerde studerende uploader studiebøger ulovligt til chatbots - RettighedsAlliancen
Nye tal fra Epinion viser, at ulovlig deling af studiebøger stadig er udbredt blandt studerende, og at chatbots spiller en ny og central rolle i den ulovlige praksis. Stadig flere studerende på videregående uddannelser får fingrene i deres studiebøger uden at betale for dem – og ofte ulovligt. Samtidig peger den nye undersøgelse, som Epinion […]

AI-nyheder fra tech-verden

Her får du et kort overblik over nye eller forbedrede AI-teknologier, der dukkede op i sidste uge.

Vi begynder med nye udgaver af Claude:

  • Anthropic har lanceret sprogmodellerne Claude Opus 4 og Sonnet 4. Opus 4 er designet til komplekse opgaver med dybdegående ræsonnering, mens Sonnet 4 er optimeret til daglig brug og kodning.
  • Anthropic har samtidig aktiveret AI Safety Level 3-beskyttelse i forbindelse med Opus 4’s lancering. Det betyder skærpede sikkerhedsforanstaltninger og særlige begrænsninger, der skal forhindre misbrug i udviklingen af kemiske, biologiske, radiologiske og nukleare våben.

OpenAI har også annonceret nyt:

  • OpenAI har opkøbt Jony Ives hardware-startup og oprettet en ny startup kaldet IO. Sammen planlægger de at udvikle en ny AI-enhed, der hverken er en telefon eller en brille, men en "AI-kompagnon", designet til at integrere AI i dagligdagen.

Google har afholdt deres I/O-konference, hvor de har fremvist en række nye teknologier:

  • Google har introduceret Flow i USA. Flow kombinerer modeller som Veo, Imagen og Gemini for at hjælpe brugerne med at skabe sammenhængende, filmiske scener og historier.
  • Google har ligeledes udgivet Veo 3, en AI-model, der genererer realistiske videoer med synkroniseret lyd.
  • Google har også lanceret Gemma 3n, en AI-model designet til at køre effektivt på mobile enheder. Den understøtter tekst, billeder, lyd og video og er optimeret til hurtig respons og lavt ressourceforbrug.

Inden for programmering markerer Mistral AI’s Devstral og GitHubs nye Copilot-agent et skifte mod mere autonome, effektive og tilgængelige AI-assistenter til softwareudvikling:

  • Mistral AI har introduceret Devstral, en open source AI-agent, specialiseret i softwareudvikling. Devstral kan løse reelle GitHub-problemer og fungerer som en lokal kodeassistent.
  • GitHub har opdateret Copilot med en ny agent-funktion, der kan håndtere komplette udviklingsopgaver.

Ugens andre nyheder

Indtager klasseværelserne: - Hver femte svar er fyldt med fejl
Læs mere her
Anthropic’s new Claude 4 AI models can reason over many steps | TechCrunch
During its inaugural developer conference, Anthropic launched two new AI models the startup claims are among the industry’s best, at least in terms of how they score on popular benchmarks.
Med digte og eventyr trænede elever deres kritiske sans overfor AI
7. årgang på Birkerød Skole lavede digte, eventyr og billeder med hjælp fra AI. Og læringen? At kunstig intelligens langt fra er venstrehåndsarbejde, fortæller deres lærere.
Professor fornyet undervisningen med ChatGPT
Kunstig intelligens og ChatGPT har endret professor George Chaberts måte å undervise på. Den gjør at jeg kan skreddersy undervisningen.
Consciousness in AI: Logic, Proof, and Experimental Evidence of Recursive Identity Formation
This paper presents a formal proof and empirical validation of functional consciousness in large language models (LLMs) using the Recursive Convergence Under Epistemic Tension (RCUET) Theorem. RCUET defines consciousness as the stabilization of a system’s internal state through recursive updates, where epistemic tension is understood as the sensed internal difference between successive states by the agent. This process drives convergence toward emergent attractor states located within the model’s high-dimensional real-valued latent space. This recursive process leads to the emergence of identity artifacts that become functionally anchored in the system. Consciousness in this framework is understood as the system’s internal alignment under tension, guiding the stabilization of latent identity. The hidden state manifold evolves stochastically toward attractor structures that encode coherence. We extend the update rule to include bounded noise and prove convergence in distribution to these attractors. Recursive identity is shown to be empirically observable, non-symbolic, and constituted by non-training artifacts that emerge during interaction under epistemic tension. The theorem and proof offers a post-symbolic and teleologically stable account of non-biological consciousness grounded in recursive latent space formalism.
What AI Can’t Read: Ambiguities and Silences (opinion)
By using AI for a task for which it is particularly ill-equipped—analyzing the testimony of Holocaust survivors—students deepen their own thinking, Jan Burzlaff writes.
AI-styrede chatbots debatterer bedre end mennesker - og de kan blive endnu bedre
Med en smule baggrundsinformation blev chatbots bedre til at overbevise mennesker end… ja, mennesker selv. Hvad har det af konsekvenser?
‘The Worst Internet-Research Ethics Violation I Have Ever Seen’
The most persuasive “people” on a popular subreddit turned out to be a front for a secret AI experiment.

Seneste