Hermed er nyhedsbrev nr. 2 for uge 45, hvor vi samler op på de historier, der ikke var plads til i det første nyhedsbrev.

  • VidenSkaber har afholdt en workshop på Aabenraa Statsskole, hvor gymnasieelever sammen med eksperter diskuterede, hvordan man kan bruge generativ AI på en klog måde i uddannelsessammenhæng og undgå at snyde sig selv.
  • En BBC-artikel beskriver, hvordan den studerende Hannah fortryder brugen af generativ AI til snyd, da det førte til en undersøgelse og fyldte hende med skam.
  • Flere af de førende universiteter i Storbritannien oplever en voldsom stigning i sager, hvor studerende bruger AI til eksamenssnyd.
  • Jeppe Klitgaard Stricker skriver i en artikel om, hvordan AI udfordrer kritisk tænkning inden for højere uddannelser og argumenterer for, at uddannelsessystemet skal gentænkes.
  • AI-tutorering giver ifølge en undersøgelse fra Harvard bedre læringsudbytte end traditionel aktiv læring i naturfag.
  • Men der er også kritik af hypen omkring AI-tutorering og dens læringseffekt. Lektor Mikala Hansbøl stiller spørgsmålstegn ved resultaterne af Harvard-undersøgelsen og advarer om, at hypen omkring AI-baserede læringsværktøjer kan føre til overfladiske forventninger til teknologiens rolle i uddannelsen.
  • Forskere fra Stanford University har udviklet Tutor CoPilot – en AI-assistent, der i realtid guider tutorer med forslag til pædagogiske strategier.
  • Ny artikel om STORM – et system udviklet til at hjælpe sprogmodeller med at skrive velstrukturerede artikler baseret på pålidelige kilder i stil med Wikipedia.

Samtidig har Claus netop udgivet en artikel om fælles viden og de udfordringer, der opstår i en tid med generativ kunstig intelligens. Især set i lyset af, at nogle elever betragter sprogmodeller som en valid kilde til viden uden selv at udvise kildekritik.

Læs den her:

Fælles viden og videnskabsteori: udfordringer i en tid med generativ kunstig intelligens
I takt med at generativ kunstig intelligens, baseret på store sprogmodeller, som f.eks. ChatGPT, Gemini, Claude eller Copilot bliver en stadig mere integreret del af vores hverdag på uddannelsesinstitutionerne, udfordres vores traditionelle forståelse af viden og særligt begrebet “fælles viden”. Denne udvikling rejser fundamentale spørgsmål inden for videnskabsteori og

Kunstig intelligens - snyd eller læring?

Hvad er den fornuftige brug af generativ kunstig intelligens i uddannelsessammenhæng? Hvordan undgår man at snyde sig selv, når man bruger kunstig intelligens som hjælpemiddel? Se med herunder og hør, hvad gymnasieelever på Aabenraa Statsskole har lært af en workshop om kunstig intelligens og læring.


I september 2024 afholdt Videnskabernes Selskabs formidlingsinitiativ VidenSkaber en workshop for en 3.g.-klasse på Aabenraa Statsskole sammen med professor i uddannelsesvidenskab på SDU Ane Qvortrup, post.doc. ved Videnscenter for teknologiforståelse Magnus Høholt Kaspersen og en gruppe studerende fra Cognitive Science på Aarhus Universitet.

VidenSkaber er støttet af Carlsbergfondet, Lundbeckfonden og Novo Nordisk Fonden.

Læs mere på videnskaber.dk, hvor du også kan finde podcasts, artikler og videoer om VidenSkabers tema "hvordan forandrer kunstig intelligens vores samfund?"

VidenSkaber – Hvordan ved vi det?
I VidenSkaber udforsker vi hverdagsnære og aktuelle problemstillinger og stiller spørgsmålet: Hvordan ved vi det? VidenSkaber er et mødested. Her sætter vi borgere og forskere sammen for at diskutere hverdagens store problemstillinger. Vi skaber og deler viden, når vi i workshops, debatter og formidling insisterer på at stille spørgsmålet: Hvordan ved vi det? Og vi gør det sammen med nogle af Danmarks dygtigste forskere på tværs af de videnskabelige discipliner.

Når kunstig intelligens bliver en fristelse

BBC offentliggjorde for nylig en artikel om en studerende ved navn Hannah, som fortryder at have brugt kunstig intelligens til snyd. Hun deler sin oplevelse med at bruge generativ AI til at færdiggøre en opgave under pres fra sygdom og stramme deadlines. Selvom AI hjalp hende med at aflevere opgaven, blev hendes brug opdaget gennem AI-detektion, hvilket førte til en undersøgelse for akademisk snyd. Hun slap uden alvorlige sanktioner, men oplevelsen fyldte hende med stor fortrydelse og skam.

Hannahs historie belyser de komplekse udfordringer ved integrationen af AI i højere uddannelse, hvor teknologien både kan være et værdifuldt værktøj og en potentielt problematisk fristelse.

Læs artiklen her:

‘I used AI to cheat at uni and regret it’ - BBC News
Hannah says she is lucky she wasn’t thrown out of university after being caught using AI.

Markant stigning i AI-relateret snyd på britiske universiteter

Flere førende universiteter i Storbritannien rapporterer en eksplosiv stigning i sager om studerende, der bruger kunstig intelligens (AI) som ChatGPT til snyd. Ifølge nye data fra Times Higher Education oplevede eksempelvis University of Sheffield en stigning fra blot 6 mistænkte tilfælde i 2022-23 til 92 i 2023-24. Andre universiteter som Queen Mary University og University of Glasgow har set tilsvarende markante stigninger og straffede næsten alle mistænkte tilfælde med sanktioner som advarsler eller nedskrivning af karakterer.

Data fra 24 Russell Group-universiteter peger dog på store forskelle i håndteringen af AI-snyd. Mens nogle institutioner har detaljerede opgørelser over AI-relateret snyd, registrerer andre slet ikke disse tilfælde eller overlader behandlingen til de enkelte fakulteter. Nogle institutioner, som University of Southampton, har ingen data, der skelner AI-snyd fra andet akademisk misbrug, hvilket ifølge eksperten Thomas Lancaster understreger en ujævn praksis og manglende sporbarhed.

Universiteter står ifølge forskere over for udfordringer med at definere og opdage AI-snyd, da det kan være svært at bevise. Michael Veale fra UCL påpeger, at en centralisering af procedurerne kunne gøre det sværere at behandle sagerne, da vurdering af AI-snyd ofte kræver faglig ekspertise. Des Fitzgerald fra University College Cork påpeger, at problemet skyldes tech-sektorens hurtige udrulning af disse værktøjer og mener, at traditionelle plagieringspolitikker ikke er tilstrækkelige til at løse AI-udfordringerne i eksamensmiljøet. Han anbefaler en bredere revurdering af vurderingsformer og en national AI-politik for højere uddannelse, som allerede er på vej i Irland.

Student AI cheating cases soar at UK universities
Figures reveal dramatic rise in AI-related misconduct at Russell Group universities, with further questions raised by sector’s ‘patchy record-keeping’ and inconsistent approach to detection

Hvorfor domænespecifik viden er vigtigere end nogensinde

I takt med, at generativ AI tilbyder hurtige svar på næsten alt, bliver evnen til at forstå og vurdere information afgørende. Inden for højere uddannelser er kritisk tænkning allerede et centralt mål, men AI’s indtog udfordrer, hvordan vi forstår og praktiserer denne kompetence. Artiklen argumenterer for, at kritisk tænkning ikke blot handler om at opdage misinformation, men også kræver dyb domænespecifik viden. Denne ekspertise gør os i stand til at evaluere AI-genereret indhold og skelne mellem værdifuld indsigt og potentielt misvisende information.

Jeppe Klitgaard Stricker foreslår, at uddannelsessystemet bør nytænkes i lyset af AI’s rolle, snarere end blot at tilpasse eksisterende strukturer. Institutioner bør eksperimentere med AI i undervisningen og udvikle løsninger gennem praksis og kontinuerlig læring over tid. Udfordringen består i at overbevise studerende om, at dybdegående viden stadig er afgørende – også i en tid, hvor AI hurtigt kan levere færdige svar.

Critical Thinking in the Age of AI
Why Domain Expertise Matters More Now, Not Less

AI-tutorering giver bedre læringsudbytte end aktiv læring i naturfag

En undersøgelse foretaget ved Harvard University sammenligner AI-baseret tutorering med aktiv læring i fysikundervisning for universitetsstuderende. Resultaterne viser, at studerende, der brugte AI-tutoreren, opnåede mere end dobbelt så store læringsfremskridt på kortere tid sammenlignet med de studerende, der deltog i aktiv klasseundervisning. Undersøgelsen blev udført som et krydsovereksperiment, hvor grupper af studerende gennemgik begge undervisningsformer og blev testet før og efter hver lektion.

Forskerne bag undersøgelsen påpeger, at AI-tutorere kan bruges til at introducere nye emner, hvilket gør det muligt for undervisere at fokusere på avancerede færdigheder som problemløsning og kritisk tænkning i klasseundervisningen.

AI Tutors Double Rates of Learning in Less Learning Time
Inside Harvard’s new groundbreaking study

Kritik af hypen omkring AI-tutorering og læringseffekt

Selvom undersøgelsen fra Harvard fremhæver lovende resultater for brugen af AI-tutorere i fysikundervisningen, er der opstået væsentlig kritik af undersøgelsens konklusioner og metode. Lektor Mikala Hansbøl stiller spørgsmålstegn ved, om de fremlagte resultater er repræsentative for læringsfeltet generelt, og advarer om, at hypen omkring AI-baserede læringsværktøjer kan føre til overfladiske og misvisende forventninger til teknologiens rolle i uddannelse. Hendes kritik sætter fokus på nødvendigheden af at se ud over de umiddelbare resultater og i stedet undersøge, hvordan læringsteoretiske og pædagogiske perspektiver kan bidrage til en mere nuanceret forståelse af AI’s potentiale i undervisningskonteksten.

For Mikala Hansbøl er artiklen et eksempel på, hvordan AI-hype kan skabe overdrevne forventninger uden tilstrækkelig videnskabelig substans. Hun opfordrer sit netværk til at undgå ukritisk spredning af ikke-peer-reviewede artikler og understreger nødvendigheden af, at AI- og læringsforskere arbejder med større teoretisk dybde og en mere nuanceret forståelse af læringsprocesser.

”AI Tutoring Outperforms Active Learning”
I call hype & bullshit!

AI-støtte gør tutorerne mere effektive

Stanford-forskere har udviklet Tutor CoPilot – en AI-assistent, som løfter kvaliteten af matematikundervisningen. Systemet guider tutorerne i realtid med forslag til pædagogiske strategier, så de stiller de rigtige spørgsmål og hjælper eleverne med at finde løsningen selv.

Elever, hvis tutor brugte Tutor CoPilot, opnåede færdighedsmestring 66 % af tiden mod 62 % uden AI-støtte. For uerfarne tutorer var effekten særlig markant, med en stigning i succesraten på 9 %. Tutor CoPilot forbedrede også tutorernes sprogbrug, så de i højere grad stillede vejledende spørgsmål frem for at give svarene.

“AI skal støtte, ikke erstatte, lærerne,” understreger forskerne. Med AI som pædagogisk sparringspartner bevares den vigtige relation mellem lærer og elev, samtidig med at undervisningen bliver mere målrettet, og eleverne bliver mere selvstændige. Tutor CoPilot illustrerer potentialet ved AI-værktøjer som en tilgængelig støtte, der hjælper undervisere med at skabe mere engagerede og selvstændige elever.

What Happens When an AI Assistant Helps the Tutor, Instead of the Student
A randomized controlled trial from Stanford University examines the efficacy of an AI-powered tutoring assistant.

Videnskablige artiker

Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models

Artiklen herover introducerer STORM, et system udviklet til at hjælpe store sprogmodeller med at skrive velstrukturerede og velfunderede artikler baseret på pålidelige kilder, i stil med Wikipedia. STORM-systemet fokuserer specifikt på den komplekse planlægningsfase, hvor emnet undersøges, og der udarbejdes en omfattende disposition. Denne fase indebærer indsamling af forskellige perspektiver og simulering af samtaler for at skabe en dybere indsigt i emnet.

Du kan selv teste STORM herunder ved at trykke på billedet (kræver login).

Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models
We study how to apply large language models to write grounded and organized long-form articles from scratch, with comparable breadth and depth to Wikipedia pages. This underexplored problem poses new challenges at the pre-writing stage, including how to research the topic and prepare an outline prior to writing. We propose STORM, a writing system for the Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking. STORM models the pre-writing stage by (1) discovering diverse perspectives in researching the given topic, (2) simulating conversations where writers carrying different perspectives pose questions to a topic expert grounded on trusted Internet sources, (3) curating the collected information to create an outline. For evaluation, we curate FreshWiki, a dataset of recent high-quality Wikipedia articles, and formulate outline assessments to evaluate the pre-writing stage. We further gather feedback from experienced Wikipedia editors. Compared to articles generated by an outline-driven retrieval-augmented baseline, more of STORM’s articles are deemed to be organized (by a 25% absolute increase) and broad in coverage (by 10%). The expert feedback also helps identify new challenges for generating grounded long articles, such as source bias transfer and over-association of unrelated facts.