Efter en dejlig sommerferie er vi nu tilbage med det ugentlige nyhedsbrev om kunstig intelligens og undervisning. Hen over sommeren er der sket meget, og vi har her udvalgt det, vi mener er mest interessant.

I løbet af sommeren var der særligt én historie i Politiken, der fangede vores opmærksomhed. Et bachelorprojekt fra Aalborg Universitet viser i deres undersøgelser, hvordan 119 gymnasielærere giver karakterer mellem 00 og 12 for den samme opgave. De studerende bag projektet konkluderede, at kunstig intelligens kunne anvendes som et beslutningsstøtteværktøj, når lærerne skal vurdere elevernes opgaver. Denne problemstilling inspirerede os til at skrive en artikel til Viden.AI, hvor vi udforsker mulighederne nærmere.

I en tankevækkende artikel på LinkedIn undersøger specialkonsulent Ove Christensen, hvordan generativ kunstig intelligens påvirker vores tænkning og læringsprocesser. Dette perspektiv giver stof til eftertanke i en tid, hvor kunstig intelligens i stigende grad vinder indpas i undervisningen.

I over et halvt år har vi arbejdet på en artikelserie, der udforsker begrebet “faglig sorg”. Vi har samlet en kort teaser, der beskriver de emner, vi dækker i de syv artikler.

I dette nyhedsbrev kaster vi også et blik ud over Danmarks grænser, da nogle af de udfordringer, vi ser med kunstig intelligens i udlandet, muligvis også kan være relevante for os i Danmark.

Australske universiteter rapporterer om betydelige udfordringer med studerendes brug af kunstig intelligens til opgaver og eksamensbesvarelser samt problemer med at opdage snyd. Samtidig viser et studie fra University of Reading, hvor vanskeligt det kan være at opdage denne form for snyd. Her oprettede forskere en række fiktive studerende, som afleverede ChatGPT-genererede besvarelser til en psykologieksamen, og hele 94% af disse blev ikke opdaget af censorerne.

I en anden undersøgelse har forskere undersøgt, hvordan kunstig intelligens oftere bliver anvendt i videnskabelige publikationer.

Afslutningsvis har OpenAI fremvist en prototype på en ny søgemaskine, der integreres i ChatGPT. Denne udvikling kan potentielt ændre måden, vi søger information på nettet.

Det er også værd at bemærke, at AI-forordningen trådte i kraft den 1. august 2024. Vi har samlet et par links, der giver et hurtigt overblik over forordningen.

God læselyst og velkommen tilbage til arbejdet!


Kunstig intelligens og karaktergivning i gymnasiet: muligheder og faldgruber

I et nyt bachelorprojekt fra Aalborg Universitet har tre studerende sat fokus på brugen af kunstig intelligens i karaktergivning i gymnasier. De beskriver i et debatindlæg i Politiken, hvordan de har gennemført et eksperiment, hvor 119 gymnasielærere skulle bedømme den samme danskopgave. Resultatet var mildest talt chokerende. Karaktererne svingede fra 00 til 12 - på præcis samme besvarelse, vel at mærke.

Man kan finde BA-projektet i bunden af denne nyhed fra Aalborg Universitet.

Kan AI blive gymnasielærernes nye kollega? Forskning viser, at det kan være en god ide
Tre nyudklækkede bachelorer fra uddannelsen politik og administration på Aalborg Universitet har undersøgt brugen af kunstig intelligens som værktøj til at assistere dansklærere i karaktergivning på landets gymnasier, og de har en klar opfordring til Børne- og Undervisningsministeriet.

Ifølge de tre studerende, understreger dette behovet for mere objektive værktøjer i vurderingen af elevernes faglige niveau. Her ser de et stort potentiale i kunstig intelligens. Deres forslag er, at man ved at “træne” et AI-system på tusindvis af eksamensbesvarelser og tilhørende karakterer kan opnå en langt mere konsistent og pålidelig bedømmelse, og at læreren dermed får et hjælpeværktøj til at give karakterer.

Men er det virkelig så ligetil at udvikle et AI-beslutningsstøtteværktøj?

Vi har dykket ned i de principielle spørgsmål og etiske dilemmaer, der rejser sig, når vi taler om at bruge kunstig intelligens til at vurdere vores unge menneskers faglige niveau.

Kunstig intelligens og karaktergivning i gymnasiet: muligheder og faldgruber
I et nyt bachelorprojekt fra Aalborg Universitet har tre studerende sat fokus på brugen af kunstig intelligens i karaktergivning på gymnasier. De beskriver i et debatindlæg i Politiken, hvordan de har gennemført et eksperiment, hvor 119 gymnasielærere skulle bedømme den samme danskopgave. Resultatet var mildest talt chokerende. Karaktererne svingede fra

Følg også med på LinkedIn, hvor vi i kommentarfeltet diskutterer med en af de studerende bag BA-projektet.

Per Størup Lauridsen on LinkedIn: Kunstig intelligens og karaktergivning i gymnasiet: muligheder og… | 43 comments
I et nyt bachelorprojekt fra Aalborg Universitet har tre studerende sat fokus på brugen af kunstig intelligens i karaktergivning i gymnasier. De beskriver i et… | 43 comments on LinkedIn

Tænkning, læring og generativ kunstig intelligens i undervisningen

I en tankevækkende artikel på LinkedIn undersøger specialkonsulent Ove Christensen, hvordan generativ kunstig intelligens påvirker den måde, vi tænker og lærer på. Her peger han på, at selve skriveprocessen og andre former for “eksternalisering”, såsom at tegne eller bygge noget, spiller en afgørende rolle i udviklingen af vores tænkning.

Når vi forsøger at udtrykke vores tanker konkret, fx gennem skrivning, bliver vi ofte udfordrede og må justere vores forståelse. Det er netop i denne "friktion" mellem tanke og udtryk, at vi for alvor lærer og udvikler os, som Christensen formulerer det:

"Det er i friktionen mellem det, man forsøger at tænke og det, man kan udtrykke af sin tænkning, at læring og personlig udvikling opstår."

Set i dette lys kan udbredt brug af generativ kunstig intelligens i undervisningen potentielt kortslutte nogle vigtige læreprocesser. Hvis elever og studerende i for høj grad lader kunstig intelligens skrive opgaver eller opsummere tekster, risikerer de at gå glip af den dybe forståelse og originale tænkning, der opstår, når man selv arbejder med stoffet.

Omvendt peger Ove Christensen også på, at generativ kunstig intelligens faktisk kan berige vores tænkning og læring, hvis den bruges med omtanke. Hvis man fx bruger kunstig intelligens til at få feedback på sin tekst eller få forslag til nye vinkler på en problemstilling, kan det give ekstra perspektiver og dybde til ens egen refleksion.

For os undervisere er det derfor værd at overveje, hvordan vi bedst guider vores elever og studerende i at bruge generativ kunstig intelligens på en måde, der styrker den enkelte fremfor at hæmme selvstændig tænkning og læring.

Læs mere i Ove Christensens spændende artikel på LinkedIn:

Hvordan kan jeg vide, hvad jeg tænker, hvis jeg ikke læser, hvad jeg har skrevet?
Denne lille tekst handler egentlig om generativ kunstig intelligens (GAI). Men inden jeg kommer til kernen af denne, må jeg lige gå en lille omvej gennem en overvejelse over, hvad tænkning egent er for noget.

Ny artikelserie om faglig sorg

Sommerferien er ikke udelukkende blevet brugt på at ligge ved stranden, men der har også været tid til endelig at dykke ned i en ny artikelserie om “faglig sorg”. I øjeblikket indeholder den syv artikler, som hver især undersøger forskellige aspekter af teknologiens påvirkning af underviserne. Den første artikel udkommer den 8. august, og herefter følger en artikel om ugen.

I tabellen herunder er en oversigt, der viser de områder, der kommes ind på i serien.

Vi håber du vil læse med når den første artikel udkommer.


Massefusk og kunstig intelligens truer australske universiteters integritet

The Guardian skriver i to artikler om, hvordan australske universiteter melder om store problemer med de studerendes brug af generativ kunstig intelligens. Eksempelvis har en underviser på et førende australsk universitet rapporteret, at over halvdelen af hendes studerende bruger kunstig intelligens i deres opgaver, og denne tendens ser kun ud til at vokse. Der rapporteres også om udbredt snyd, hvor studerende ofte bruger AI til at lave opgaver eller endda til at besvare eksamensspørgsmål i realtid. De studerende fortæller, at de føler, at de nemt kan skjule deres AI-brug og undgå konsekvenser.

Universiteterne siger, at de bruger plagieringsværktøjer som Turnitin, men teknologien er ofte ikke i stand til at bevise snyd med AI, hvilket har ført til, at mange studerende går fri. Samtidig er der en tøven fra institutionernes side med at gøre for meget ved de studerende, der snyder, da det kan påvirke universiteternes økonomi negativt. Universiteterne forsøger at finde en balance mellem at omfavne teknologiens muligheder og samtidig sikre akademisk integritet.

Selvom der er sket en stigning i snyd med brug af kunstig intelligens, er der stadig mange eksempler på de klassiske metoder, hvor studerende betaler andre for at skrive deres opgaver. Her forklarer Kane Murdoch, der er leder af klager og disciplinærsager på Macquarie University, at han har modtaget voldelige trusler fra kriminelle grupper, der tilbyder sådanne snydetjenester.

Læs artiklerne her:

‘Nobody is blind to it’: mass cheating through AI puts integrity of Australian universities at risk, academics claim
Staff and students say failure to challenge wholesale use of genAI threatens to make degrees all but worthless
Lures and violent threats: old school cheating still rampant at Australian universities, even as AI rises
Integrity experts say sites offering cheating services to students are hard to trace, and some are run by criminals willing to make threats of violence

Studie afslører, at generativ kunstig intelligens kan overgå universitetsstuderende i eksamener

I en undersøgelse udført af forskere fra University of Reading viste det sig, at kunstig intelligens kan præstere bedre end studerende ved universitetseksamener. Forskerne oprettede 33 fiktive studerende og anvendte ChatGPT til at generere svar til eksamener i psykologi på bachelorniveau. Resultatet var, at de AI-genererede svar i gennemsnit scorede en halv karakter højere end de studerendes svar. Hele 94% af de AI-genererede besvarelser blev ikke opdaget af censorerne, men ifølge undersøgelsen er den faktiske detektionsrate på 6% sandsynligvis en overvurdering. Derfor vil snyd ved brug af kunstig intelligens sandsynligvis forblive ubemærket i endnu flere situationer.

Undersøgelsen viste også, hvordan sprogmodeller som ChatGPT er i stand til at producere overbevisende eksamensbesvarelser, men at disse varierer afhængigt af fagets niveau. I første og andet studieår klarede kunstig intelligens sig bedre end de studerende, mens tredjeårsstuderende overgår teknologien. Dette kan skyldes, at kunstig intelligens stadig har udfordringer med at håndtere abstrakt ræsonnering, som kræves på højere niveauer af universitetsuddannelserne.

Flere institutioner overvejer nu at genindføre fysiske eksamener som en metode til at opretholde akademisk integritet. University of Glasgow har for eksempel allerede taget skridt i den retning ved at genindføre eksamener med fysisk fremmøde.

Læs mere om studiet her:

AI can beat real university students in exams, study suggests
University exams taken using artificial intelligence beat those by real students, in a limited study.
A real-world test of artificial intelligence infiltration of a university examinations system: A “Turing Test” case study
The recent rise in artificial intelligence systems, such as ChatGPT, poses a fundamental problem for the educational sector. In universities and schools, many forms of assessment, such as coursework, are completed without invigilation. Therefore, students could hand in work as their own which is in fact completed by AI. Since the COVID pandemic, the sector has additionally accelerated its reliance on unsupervised ‘take home exams’. If students cheat using AI and this is undetected, the integrity of the way in which students are assessed is threatened. We report a rigorous, blind study in which we injected 100% AI written submissions into the examinations system in five undergraduate modules, across all years of study, for a BSc degree in Psychology at a reputable UK university. We found that 94% of our AI submissions were undetected. The grades awarded to our AI submissions were on average half a grade boundary higher than that achieved by real students. Across modules there was an 83.4% chance that the AI submissions on a module would outperform a random selection of the same number of real student submissions.

Omfanget brug af ChatGPT i akademisk skrivning: En analyse af ordforbrug

Ved at analysere 14 millioner abstracts fra PubMed-databasen fra 2010 til 2024 fandt forskere en markant stigning i brugen af visse stilistiske ord, hvilket tyder på omfattende brug af kunstig intelligens i videnskabelige publikationer. Mindst 10% af alle abstracts i 2024 er blevet påvirket af kunstig intelligens, og dette tal kan være så højt som 30% inden for visse discipliner, lande og tidsskrifter.

Forskerne brugte en metode kaldet “excess word usage” til at identificere stilistiske ord, der ofte bruges af sprogmodeller, såsom “delves”, “showcasing” og “underscores”. De fandt, at ordforbruget i 2024 ikke kun afspejlede stigninger i nye forskningsområder, som det ofte ses ved tidligere skift i videnskabelig skrivning, men snarere en stigning i stilistiske ord, der oftest bruges af sprogmodeller. Dette skift i ordforbrug indikerer, at ChatGPT og lignende værktøjer i stigende grad bruges af forskere som hjælpemidler til at skrive artikler.

Analyserne viste også, at brugen af sprogmodeller varierede betydeligt mellem forskellige akademiske områder, lande og tidsskrifter. Datalogi havde eksempelvis et højere brug af sprogmodeller (op til 20%), og ikke-engelsktalende lande som Kina og Sydkorea viste også højere brug af sprogmodeller. Denne forskel kan skyldes, at forskere i ikke-engelsktalende lande bruger sprogmodeller til at forbedre sproget i deres engelske publikationer. Desuden blev brugen af sprogmodeller fundet mere almindelig i tidsskrifter med hurtigere publiceringsprocesser sammenlignet med mere prestigefyldte tidsskrifter som Nature og Science.

Studiets resultater antyder, at den stigende brug af kunstig intelligens i akademisk skrivning kan udfordre forskningens integritet ved at indføre stilistiske bias og øge risikoen for unøjagtigheder. Forskere advarer mod potentialet for, at kunstig intelligens kan anvendes af såkaldte “papirmøller” til at producere falske publikationer.

Delving into ChatGPT usage in academic writing through excess vocabulary
Recent large language models (LLMs) can generate and revise text with human-level performance, and have been widely commercialized in systems like ChatGPT. These models come with clear limitations: they can produce inaccurate information, reinforce existing biases, and be easily misused. Yet, many scientists have been using them to assist their scholarly writing. How wide-spread is LLM usage in the academic literature currently? To answer this question, we use an unbiased, large-scale approach, free from any assumptions on academic LLM usage. We study vocabulary changes in 14 million PubMed abstracts from 2010-2024, and show how the appearance of LLMs led to an abrupt increase in the frequency of certain style words. Our analysis based on excess words usage suggests that at least 10% of 2024 abstracts were processed with LLMs. This lower bound differed across disciplines, countries, and journals, and was as high as 30% for some PubMed sub-corpora. We show that the appearance of LLM-based writing assistants has had an unprecedented impact in the scientific literature, surpassing the effect of major world events such as the Covid pandemic.

AI-forordningen træder i kraft

EU's nye forordning om kunstig intelligens trådte i kraft den 1. august 2024 og gælder nu direkte i alle EU-lande. Dette betyder, at medlemslandene skal oprette nationale myndigheder til at overvåge implementeringen af reglerne, og i Danmark er det Digitaliseringsstyrelsen, der får rollen som tilsynsmyndighed. Virksomheder, der overtræder forordningen, kan risikere bøder på op til 7 % af deres samlede omsætning.

Selvom forordningen opfordrer til frivillig overholdelse af reglerne allerede nu, bliver de først lovpligtige fra den 2. august 2026. De forskellige krav i forordningen har dog forskellige frister for, hvornår de træder i kraft (overgangsperioder):

  • Forbuddet mod brugen af AI med uacceptabel risiko gælder allerede fra den 2. februar 2025.
  • De generelle krav om transparens træder i kraft den 2. august 2026.
  • Kravene til højrisiko-AI gælder ligeledes fra den 2. august 2026.

Det er vigtigt, at virksomheder og organisationer, der anvender kunstig intelligens, sætter sig grundigt ind i de nye regler og forbereder sig på at overholde dem inden for de fastsatte tidsfrister.

Retsakt om kunstig intelligens
Forordningen om kunstig intelligens er den første retlige ramme for kunstig intelligens nogensinde, som omhandler risiciene ved kunstig intelligens og sætter Europa i stand til at spille en førende rolle på globalt plan.
AI-forordningen– europæisk regulering af kunstig intelligens
Kort om AI-forordningen (AI-act). Bliv klogere på omfanget af forordningen m.m.
AI-forordningen - indhold, krav og konsekvenser for uddannelsessystemet
I artiklen udforsker vi risikoniveauer, definitioner af AI-systemer, og hvordan forordningen kan påvirke brugen af kunstig intelligens i undervisningen.

OpenAI viser prototype af SearchGPT

OpenAI har annonceret en prototype på en søgemaskine, de kalder SearchGPT, som kombinerer generativ kunstig intelligens med internetsøgninger. SearchGPT er designet til at give hurtige, konverserende svar på brugerforespørgsler og inkorporere henvisninger til kilder direkte i svarene. OpenAI planlægger at integrere denne funktion i ChatGPT for at forbedre måden, hvorpå man navigerer internettet.

Under en demonstration blev der dog påvist unøjagtigheder, såsom at SearchGPT forkert angav datoerne for en musikfestival i Boone, North Carolina. Dette viser en af de største udfordringer ved AI-drevne søgemaskiner: de er tilbøjelige til at levere unøjagtige oplysninger. Det rejser spørgsmål om pålidelighed og troværdighed, især fordi AI-modeller ofte genererer “hallucinationer” eller direkte forkerte oplysninger.

OpenAI samarbejder med udgivere som The Atlantic for at fremme troværdige kilder, men der har været bekymringer om AI’ens evne til præcist at kreditere kilder. OpenAI lover, at deres produkter vil blive bedre over tid, men offentligheden må i mellemtiden have tillid til denne udvikling.

I første omgang lanceres SearchGPT i en begrænset udgave, og man kan skrive sig op på deres venteliste: https://chatgpt.com/search

OpenAI tests new search engine called SearchGPT amid AI arms race
Prototype, initially launching with select publishers and users, set to challenge Google’s dominance of online search
OopsGPT
OpenAI just announced a new search tool. Its demo already got something wrong.
OpenAI announces SearchGPT, its AI-powered search engine
SearchGPT is just a “prototype” for now.