Matomo

spring til indhold

Ugens nyheder: Studie afslører udbredt frygt for plagiat

I denne uges nyhedsbrev undersøger vi AI's indflydelse på uddannelse – fra gymnasieelevers frygt for plagiat og Jeppe Strickers advarsel om "den syntetiske videnskrise" til nye perspektiver på teknologiens rolle i folkeskolen og gymnasieskolen.

· 12 minut læses

Indholdsfortegnelse

I denne uge har vi fokus på en ny undersøgelse fra Københavns Universitet, der viser, at mange gymnasieelever frygter at blive taget i plagiat, selvom de ikke har forsøgt at snyde. Dette skyldes især en manglende indsigt i, hvordan plagiatværktøjer fungerer.

Jeppe Klitgaard Stricker har udgivet en ny artikel, hvor han introducerer begrebet “den syntetiske videnskrise” og diskuterer, hvordan generativ AI producerer tekster, der lyder troværdige, men mangler den faglige dybde, der kendetegner reel viden. Jeppe anvender begreber som “Digital Plastic” og “Slop” til at beskrive dette AI-genererede indhold, der fremstår som viden uden at være det.

Vi henviser også til en række indlæg fra sidste uge, der udkom på Folkeskolen.dk, og som alle har fokus på AI i undervisningen:

Ugens andre interessante artikler var fra Gymnasieskolen og Zetland:

Du kan også læse ugens andre nyheder til slut i nyhedsbrevet.

God læsning!


Elever frygter uretfærdige plagiatsager

En ny undersøgelse, ledet af forsker Mads Paludan Goddiksen fra Københavns Universitet, viser, at mange gymnasieelever frygter at blive beskyldt for plagiat, selvom de ikke har haft til hensigt at snyde.

Grafik: https://gymnasieskolen.dk/articles/aerlige-elever-er-bange-for-at-blive-taget-i-plagiat/

Eleverne har begrænset indsigt i, hvad der sker, når deres opgaver bliver tjekket for plagiat i skolens software. Mange tror fejlagtigt, at systemet automatisk afgør, om der er tale om snyd, hvilket ikke er tilfældet. AI-værktøjer som ChatGPT har gjort grænsen mellem plagiat og legitim brug af teknologi endnu mere uklar. Undersøgelser viser desuden, at elever ofte har svært ved at identificere plagiat, medmindre det er tydeligt.

Mads Paludan Goddiksen anbefaler, at skoler bliver mere transparente om plagiatprocessen og præciserer, at det altid er en menneskelig vurdering, der afgør, om der er tale om snyd. Han opfordrer også til mere undervisning i korrekt kildehåndtering og akademisk integritet, så eleverne får en bedre forståelse af, hvornår en tekst er plagieret.

Ærlige elever er bange for at blive taget i plagiat

Læs hele undersøgelsen nedenfor.

The dark side of text-matching software: worries and counterproductive behaviour among European upper secondary school and bachelor students - International Journal for Educational Integrity
Text-matching software (TMS) is a standard part of efforts to prevent and detect plagiarism in upper secondary and higher education. While there are many studies on the potential benefits of using this technology, few studies look into potential unintended side effects. These side effects include students worrying about being accused of plagiarism due to TMS output, even though they did not intentionally plagiarise. Although such worries are frequently mentioned in the literature, little is known about how prevalent they are, why they occur and how students react to them. This paper aims to fill this knowledge gap.The data for the study comprise 36 interviews with upper secondary and Bachelor students from three European countries combined with survey data from 3,424 students from seven European countries representing a broad range of disciplines.The study found that a substantial proportion of the two groups of students – 47% of upper secondary and 55% of Bachelor students – had experienced TMS-related worries during their current studies. Furthermore, there were substantial differences across countries. Students worry partly because they have a poor understanding of how TMS is used in their institution, and partly because they know that plagiarism is taken very seriously. The study shows that TMS-related worries can lead students to become very focused on not being caught plagiarising, to such an extent that some adopt citation practices that they believe are suboptimal.The paper concludes that institutions using TMS should always combine it with training for students and teachers. Students should be clearly informed about how TMS is used and should develop an understanding of plagiarism and good citation practice that goes beyond the narrow focus on any overlap between texts elicited by the software.

Den syntetiske videnskrise: AI og udhulingen af viden

I en ny artikel skriver Jeppe Klitgaard Stricker om en aktuel problematik i forbindelse med AI: den syntetiske videnskrise. Det centrale problem er ikke AI-genereret indhold i sig selv, men snarere, at dette indhold ofte fremstår som legitim viden uden at have gennemgået de traditionelle mekanismer for videnskabelig kvalitetssikring, såsom peer review, akademisk debat og metodisk gennemsigtighed.

Dette skaber udfordringer i undervisningen, hvor studerende i stigende grad risikerer at forveksle overfladiske, AI-genererede tekster med dybdegående akademisk forståelse.

Samtidig påpeger Jeppe, at forskningsverdenen selv er medskaber af problemet, da produktivitet og kvantificerbare resultater ofte vægtes højere end erkendelse og dybde. Dette kan føre til et akademisk miljø, hvor forskningsmængden bliver vigtigere end kvaliteten.

Valget er derfor klart: Enten accepteres en fremtid, hvor syntetisk viden erstatter ægte indsigt, eller også fastholdes de processer, der sikrer videnens værdi.

Jeppe foreslår, at uddannelsesinstitutioner omstiller både undervisning og forskning med større fokus på forskningsbaserede diskussioner og dybde frem for produktivitet.

Læs hele artiklen på Stricker.ai – og husk at tilmelde dig Jeppes nyhedsbrev for gode indsigter og perspektiver på kunstig intelligens og undervisning.

Den Syntetiske Videnskrise
I AI-sammenhænge taler vi om bias og misinformation, men jeg tror vi overser en mindst lige så betydningsfuld problemstilling: den syntetiske videnskrise. Leon Furze bruger begrebet Digital Plastic og bl.a. Simon Willison taler om Slop i forhold til den slags AI-genereret indhold, der på det nærmeste ikke består af indhold. Uanset hvilke ord vi bruger til at beskrive fænomenet, så er problematikken klar: vores traditionelle forståelse af, hvad der er værd at vide, og hvordan vi ved noget, udhule

AI som medforsker: Potentialet i en digital videnskabelig assistent

Et nyt forskningsprojekt introducerer en AI-baseret co-scientist, der er udviklet til at støtte forskere i at formulere og forbedre videnskabelige hypoteser. Systemet bygger på en multi-agent model, der anvender en iterativ tilgang med generering, debat og evolution af hypoteser – inspireret af den videnskabelige metode.

AI-medforskeren fungerer ikke som en erstatning for forskere, men som en avanceret assistent, der kan analysere store mængder data og foreslå nye idéer på en struktureret og transparent måde. Forskerne interagerer med systemet ved at angive forskningsmål i naturligt sprog og kan løbende give feedback for at justere outputtet.

Towards an AI co-scientist
Scientific discovery relies on scientists generating novel hypotheses that undergo rigorous experimental validation. To augment this process, we introduce an AI co-scientist, a multi-agent system built on Gemini 2.0. The AI co-scientist is intended to help uncover new, original knowledge and to formulate demonstrably novel research hypotheses and proposals, building upon prior evidence and aligned to scientist-provided research objectives and guidance. The system’s design incorporates a generate, debate, and evolve approach to hypothesis generation, inspired by the scientific method and accelerated by scaling test-time compute. Key contributions include: (1) a multi-agent architecture with an asynchronous task execution framework for flexible compute scaling; (2) a tournament evolution process for self-improving hypotheses generation. Automated evaluations show continued benefits of test-time compute, improving hypothesis quality. While general purpose, we focus development and validation in three biomedical areas: drug repurposing, novel target discovery, and explaining mechanisms of bacterial evolution and anti-microbial resistance. For drug repurposing, the system proposes candidates with promising validation findings, including candidates for acute myeloid leukemia that show tumor inhibition in vitro at clinically applicable concentrations. For novel target discovery, the AI co-scientist proposed new epigenetic targets for liver fibrosis, validated by anti-fibrotic activity and liver cell regeneration in human hepatic organoids. Finally, the AI co-scientist recapitulated unpublished experimental results via a parallel in silico discovery of a novel gene transfer mechanism in bacterial evolution. These results, detailed in separate, co-timed reports, demonstrate the potential to augment biomedical and scientific discovery and usher an era of AI empowered scientists.

AI-chatbots forvrænger fakta - selv med pålidelige kilder

En undersøgelse fra BBC har afsløret, at AI-chatbots fortsat producerer misvisende svar, selv når de baserer sig på faktatjekkede nyhedskilder.

Forskerne testede markedsledende AI-modeller og fandt, at

  • 19 % af AI-genererede svar med BBC-referencer indeholdt faktuelle fejl.
  • 51 % af svarene havde væsentlige journalistiske mangler, såsom uklar skelnen mellem fakta og holdninger, manglende kontekst eller uunderbyggede påstande.
  • 13 % af de citerede BBC-kilder var enten forvanskede eller ikke-eksisterende.

Eksempler inkluderer en forkert gengivelse af NHS' anbefalinger om rygning og vaping samt en fejlagtig beskrivelse af politiets samarbejde med private sikkerhedsfirmaer om butikstyveri. AI-modellerne gav også en skæv fremstilling af Mellemøstkonflikten uden belæg i de citerede kilder.

BBC understreger, at disse fejl er alvorlige, da et velfungerende samfund afhænger af en fælles forståelse af fakta. Udbredelsen af unøjagtige AI-genererede oplysninger kan føre til misinformation og undergrave tilliden til medierne.

Chatbots Are Hallucinating - No Matter What · Dataetisk Tænkehandletank
Even if the news sites around the world, who today block for AI bots or…

AI i skolen: Skal det handle om læring eller effektivisering?

Ronni Laursen skriver i et debatindlæg på Folkeskolen.dk, at det er naivt at tro, at AI kan erstatte lærere. Han kritiserer Dansk Arbejdsgiverforening (DA) for at foreslå, at AI kan frigøre 9.000 lærerstillinger, da erfaringer fra tidligere digitaliseringsprojekter viser, at top-down-implementering ofte fejler.

Her trækker han paralleller til tidligere forsøg på at standardisere undervisningen gennem læringsplatforme, som mange lærere bevidst undlod at bruge. Han advarer om, at AI i skolen kan føre til en ensrettet undervisning, hvor fleksibilitet og pædagogisk dømmekraft erstattes af automatiserede løsninger.

Selvom AI kan være et nyttigt værktøj til at understøtte undervisningen - fx ved at tilpasse materiale til den enkelte elev eller automatisere feedback - bør det ikke bruges til at reducere antallet af lærere.

AI i skolen: Vi har set naiviteten før
Det er naivt at tro, at AI kan erstatte lærerne, skriver Ronni Laursen i dagens indlæg, men den kunstige intelligens skal hjælpe lærerne i det daglige arbejde.

AI i skolen: Kan rundkredspædagogik styrke elevernes kritiske sans?

I Folkeskolen skriver Lene Rachel Andersen om, at AI’s indtog i skolen kræver en pædagogisk omstilling, hvor vi styrker elevernes evne til kritisk refleksion frem for blot at reproducere viden. Hun peger på, at AI allerede har skabt tre udfordringer i undervisningen: Elever kan bruge AI til at lave deres opgaver uden at lære noget, de udvikler ikke selvstændig tænke- og skrivefærdigheder, og de har ofte større tillid til AI end til deres lærere – selv når AI giver forkerte svar.

Læs hele indlægget på folkeskolen.dk

Kunstig intelligens: Rundkredspædagogik kan vaccinere elever mod forkerte og lette svar
Det er vigtigt, at skolen holder fast i den stærke, nordiske dannelsestradition, mener tænketanksdirektør.

Folkeskolen skal omfavne teknologi – ikke afvise den

DI Digital støtter regeringens forslag om mobilfri folkeskoler, da private smartphones kan forstyrre undervisningen og påvirke de sociale dynamikker negativt. Dog påpeger de, at det samtidig er afgørende at integrere den teknologi, der kan styrke børns digitale kompetencer.

Teknologiforståelse bør ikke kun være et valgfag i udskolingen, men også et obligatorisk fag for alle elever. Digitale læremidler kan øge motivationen og skabe variation i undervisningen, og det er nødvendigt, at børn lærer både at bruge og forstå teknologi.

Selvom regeringen ikke har aktuelle planer om at gøre teknologiforståelse obligatorisk, vil DI Digital fortsat arbejde for, at alle elever opnår de nødvendige færdigheder til at navigere i en digitaliseret verden.

Folkeskolen må ikke vende ryggen til teknologien - DI Digital
Trivselskommissionen offentliggjorde tirsdag sin længe ventede rapport med 35 anbefalinger, der samlet set skal tackle udfordringerne med børn og unges trivsel. Kommissionens anbefalinger om en smartphonefri grundskole løb med opmærksomheden, ikke mindst på grund af regeringens forslag om et forbud mod mobiler på skolerne.

Chatbots i undervisningen: Fra kontrol til læring

Sprogmodeller som ChatGPT repræsenterer et paradigmeskifte i uddannelsessektoren, påpeger Kasper Nissen i et indlæg i Gymnasieskolen. I stedet for at betragte AI som en trussel mod traditionel undervisning fremhæver han potentialet for at frigøre både læreres og elevers ressourcer gennem en hensigtsmæssig implementering.

I stedet for at se AI som et problem, fordi elever kan bruge den til at snyde i skriftlige opgaver, foreslår han, at man ændrer evalueringen, så hjemmeopgaver ikke længere fungerer som kontrolværktøj, men udelukkende som et pædagogisk redskab. Hvis skriftlige afleveringer ikke længere bruges til karaktergivning, men til læring og feedback, bliver frygten for snyd irrelevant. Elever, der lader AI gøre hele arbejdet, vil alligevel blive afsløret ved de få årlige, kontrollerede prøver.

Lærere kan også få mere tid til værdifuld feedback, fordi AI kan overtage mekaniske rettelser af grammatik og struktur, mens de menneskelige undervisere kan fokusere på fortolkning, stil og nuancer. På den måde bliver AI ikke en fjende, men et værktøj, der giver lærere og elever større frihed til at fokusere på det, der virkelig betyder noget.

Kasper Nissen mener, at AI bør integreres i undervisningen med en åben tilgang, der understøtter læring frem for at fastholde forældede evalueringsmetoder, som bliver stadig vanskeligere at håndhæve.

Chatbottens frisættende potentiale

AI som superkraft: Potentiale, risici og vejen frem

Ida Ebbensgaard har netop udgivet bogen Ægte og belyser i en artikel i Zetland, hvordan AI kan være med til at styrke menneskelig kreativitet og problemløsning, samtidig med at den medfører store udfordringer.

For at udnytte AI’s potentiale uden at miste kontrollen argumenterer Ida Ebbensgaard for, at vi skal mestre teknologien – ikke afvise den. AI kan sammenlignes med elektricitet eller internettet i sin transformative kraft og bør ses som et værktøj, der understøtter, men ikke erstatter, menneskelig dømmekraft.

Læs Idas artikel herunder, og bestil eventuelt bogen hos Zetland.

Maskinen giver mennesket superkræfter. Her er, hvorfor vi skal bruge AI meget mere
Alle kan bruge kunstig intelligens. Det er ikke svært. Du skal bare i gang.
Ægte. En lille bog om kunstig intelligens
Hvad betyder den kunstige intelligens for os mennesker? Ida Ebbensgaard har skevet en lille bog, der argumenterer for, at netop fordi teknologien fylder så meget, vil ægte opmærksomhed og relationer stige kurs: Jo mere maskine, jo mere menneske. Og hun giver et bud på, hvordan man i praksis kan gribe forandringen an –

Ugens andre nyheder

Sort boks, stor magt: Hvorfor AI skal lære at forklare sig selv
For at AI virkelig kan være effektivt og pålideligt, skal brugerne forstå, hvordan modellerne træffer beslutninger. Men hvordan skaber vi gennemsigtighed i kunstig intelligens?
Kunstig intelligens kan give forbrugerne lavere elregninger
Læs mere her.
Her er opgaven, du ikke kan outsource: Som leder i 2025 skal du være AI-superbruger : Ledelse - Mandag Morgen
De fleste ledere føler sig på gyngende grund i forhold til AI, viser ny analyse. Men der er ingen vej uden om at finde fodfæste i den buldrende teknologi. Og hellere i går end i morgen. Vi har spurgt techeksperten, karriererådgiveren og topchefen, hvordan man som leder tæmmer den kunstige intelligens.
Kunstig intelligens bør skærpe ledelsens blik på arbejdsmiljøet - OFFENTLIG LEDELSE
Vi kan ikke tale om kunstig intelligens uden at tale om arbejdsmiljø – og ledelse, mener Steffen Bohni, direktør i Det Nationale Forskningscenter for Arbejdsmiljø. For kunstig intelligens vil påvirke og forandre både arbejdsopgaver og medarbejdere – og derfor også arbejdsmiljøet.

Seneste