I denne uge har vi fokus på noget, som mange undervisere har efterspurgt, nemlig et værktøj, som kan detektere, om tekster er skrevet med kunstig intelligens. Det har vist sig, at OpenAI har muligheden, men at de er tilbageholdende med at udgive det. Udover at henvise til The Wall Street Journal, som skriver om værktøjet, har vi også et perspektiv fra Jeppe Klitgaard Stricker, der har kigget lidt på nøjagtigheden i værktøjet. Husk også at tilmelde jer hans nyhedsbrev – det handler ligeledes om AI og uddannelse, og han skriver ret godt.
Vi har også en rapport med, der viser, at mange studerende er bekymrede over, at kunstig intelligens kan reducere uddannelsernes værdi. Samtidig har en undersøgelse fra Harvard afsløret, at næsten 90 % af bachelorstuderende bruger AI til studierne. Det er nok ikke overraskende, men for 25 % af disse studerende erstatter AI mange af de traditionelle læringsaktiviteter. Vi linker til undersøgelsen og til Ove Christensens blogindlæg på LinkedIn, hvor han reflekterer over teksten.
Efterhånden som generativ kunstig intelligens bliver brugt af lærere til at give feedback eller lave undervisningsmaterialer, opstår spørgsmålet, om det ikke kræver, at vi er transparente omkring denne brug? Et interessant blogindlæg på EdSurge diskuterer fordele og ulemper.
I vores nyhedsbreve spænder vi bredt fra grundskolen til universitetsniveau, og det kan være svært at følge med i dette spænd. Dog vil vi gerne henvise til et nyt værktøj fra Playful Learning DK-programmet, som er rettet mod grundskolen. Her kan man ved hjælp af generativ kunstig intelligens få hjælp til innovative undervisningsforløb.
God læselyst
OpenAI holder igen med anti-snyde værktøj til undervisningen
I en artikel fra The Wall Street Journal afsløres det, at OpenAI i al hemmelighed har udviklet en teknologi, der med 99,9% nøjagtighed kan detektere, om en tekst er skrevet af ChatGPT. Projektet har været under intern diskussion hos OpenAI i to år, og teknologien har været klar til lancering i cirka et år.
Der er dog uenighed internt om, hvorvidt værktøjet skal frigives til offentligheden, da der er bekymring for, at det kan føre til falske anklager om snyd, særligt rettet mod bestemte grupper, såsom personer med engelsk som andetsprog.
Teknologien fungerer ved at ændre en lille smule på den måde, hvorpå ord udvælges i teksten, hvilket efterlader et “vandmærke”, som er usynligt for det menneskelige øje, men kan spores af OpenAIs detektionssystem. En udfordring ved systemet er dog, at vandmærket relativt let kan fjernes med simple metoder, såsom oversættelse mellem sprog eller ved at tilføje og fjerne tegn i teksten. Bare det at sende den igennem Google Translate, vil fjerne vandmærket.
Derudover er der en balancegang i forhold til, hvor mange der skal have adgang til sådan et detektionssystem. Hvis for få får adgang, vil det ikke være effektivt, men hvis for mange har adgang, risikerer man, at teknikken bag vandmærkningen bliver afsløret og udnyttet.
På trods af disse betænkeligheder anerkender OpenAI behovet for at tackle problemet med AI-baseret snyd, særligt inden for uddannelsessektoren. De overvejer derfor nøje, hvordan de kan dele teknologien på en måde, der er både effektiv og ansvarlig. Det nævnes desuden i artiklen, at OpenAI i første omgang har prioriteret at udvikle vandmærkningsteknologier til billeder og lyd, da risikoen for misbrug her anses for at være større, især i et valgår.
Læs artiklen på The Wall Street Journal
På Viden.AI skriver vi om denne detektor, da det er et aktuelt emne i medierne, og fordi det er interessant, at OpenAI hemmeligt har arbejdet med vandmærkning. Det kan give håb om, at vi kan få et system til uddannelsessktoren, der kan vise, om eleverne har afleveret opgaver, der er skrevet af kunstig intelligens.
Udfordringen er dog, at selv hvis OpenAI frigiver deres detektor, vil der hurtigt dukke systemer op, som kan fjerne vandmærket. Desuden findes der mange andre sprogmodeller end ChatGPT, som ikke har et sådant vandmærke. Derfor risikerer vi at få en falsk tryghed, hvis vi tror, at vandmærker i tekster alene kan løse alle udfordringerne med kunstig intelligens i uddannelsessystemet.
Hvad betyder 99,9% nøjagtighed?
Jeppe Klitgaard Stricker, der er konsulent og ekspert i digital læring, har også reflekteret over, hvad OpenAI's hemmelige værktøj betyder. I sit nye nyhedsbrev stiller han blandt andet spørgsmålstegn ved, hvad en nøjagtighed på 99,9% reelt dækker over, og påpeger, at selv en lille fejlmargin kan have store konsekvenser.
Desuden rejser han en vigtig diskussion om, hvornår brugen af AI i opgaveskrivning egentlig kan betegnes som snyd. I stedet for at fokusere på detektionsværktøjer opfordrer han uddannelsesinstitutionerne til at gentænke deres eksamensformer og lægge mere vægt på processer og refleksion frem for udelukkende at bedømme det endelige produkt.
Læs hans nyhedsbrev her:
Nyt nyhedsbrev om AI og uddannelse
På LinkedIn har Jeppe Klitgaard Stricker været meget aktiv, hvor han deler værdifulde perspektiver, dybdegående analyser og tankevækkende refleksioner gennem sine mange indlæg. Han har valgt at udgive et ugentligt nyhedsbrev, og vi vil anbefale at følge det.
Du kan læse hans tidligere opslag og tilmelde dig her:
Studerende bekymrede over AI’s påvirkning på højere uddannelse
En ny rapport afslører, at mange studerende er bekymrede for, at en stigende brug af kunstig intelligens i undervisningen kan reducere uddannelsens værdi. Ifølge en undersøgelse blandt 3800 studerende fra 16 lande mener 55% af deltagerne, at overdreven brug af kunstig intelligens er med til at devaluere deres uddannelse, mens 52% oplever, at det påvirker deres faglige præstationer negativt. Kun 18% finder AI-baserede kurser mere værdifulde end traditionelle kurser. Selvom mange studerende er nervøse for at blive for afhængige af kunstig intelligens, indrømmer 86%, at de regelmæssigt bruger værktøjer som ChatGPT i deres studier.
Rapporten fremhæver også en betydelig usikkerhed omkring AI-retningslinjerne på universiteterne, hvor 86% af de adspurgte studerende ikke føler sig fuldt informerede. Dette har ført til forvirring, da studerende ofte modtager modstridende information fra forskellige fakulteter. Rapporten understreger derfor behovet for klarere kommunikation og træning i brugen af kunstig intelligens for både studerende og undervisere.
Undersøgelse afslører massiv brug af generativ kunstig intelligens blandt studerende
En undersøgelse fra Harvard University viser, at næsten 90% af de adspurgte bachelorstuderende bruger generativ AI i deres studier, og for 25% af disse studerende erstatter AI i stigende grad traditionelle læringsaktiviteter som at deltage i timerne eller læse påkrævet materiale. Undersøgelsen fremhæver også, at mange studerende er bekymrede for, at AI kan skade deres fremtidige jobmuligheder, mens halvdelen ønsker flere kurser, der omhandler AI’s fremtidige indflydelse.
Generativ AI anvendes primært til at besvare generelle spørgsmål, hjælpe med skriveopgaver og programmering. Samtidig er der en tydelig økonomisk skævhed i adgangen til AI, da studerende fra højere økonomiske baggrunde oftere betaler for premium AI-tjenester, hvilket giver dem flere fordele og mindre behov for at bruge universitetsressourcer. Undersøgelsen anbefaler, at universiteter tilpasser deres undervisning og ressourcer for at håndtere AI’s voksende indflydelse.
Læs også Ove Christensens interessante indlæg på LinkedIn, hvor han reflekterer over denne undersøgelse.
Bør lærere oplyse, når de bruger AI i undervisningsmaterialer?
Diskussionen om, hvorvidt lærere skal oplyse elever, når de bruger AI til at skabe undervisningsmaterialer, er blevet aktuel i takt med den stigende brug af generativ AI.
I den nedenstående artikel mener Marc Watkins fra University of Mississippi, at det er vigtigt at lære eleverne korrekt brug af AI, og at der skal være gennemsigtighed - også når vi bruger teknologien. Der er dog mange lærere og eksperter, som er uenige om behovet for sådanne oplysninger. Nogle sammenligner brugen af AI med andre værktøjer som lommeregnere, mens andre mener, at det afhænger af, hvordan AI bruges. De mener fx, at det bør oplyses, hvis AI anvendes til at give feedback på en elevopgave.
Artiklen lægger op til, at det er vigtigt, at skoler og institutioner udvikler klare politikker for brugen af AI, så forventningerne er tydelige.
Blingtron: En kreativ, virtuel sparringspartner til undervisningen i folkeskolen
Blingtron (LEG-GPT) er et nyt værktøj, der er udviklet med henblik på at styrke undervisningen i folkeskolen ved at give lærere adgang til en kunstig intelligens, som kan være deres virtuelle sparringspartner.
Værktøjet er udviklet af Ulrik Rosenberg og Simon Mathiasen, som er en del af Play@Heart-projektet under det nationale Playful Learning DK-program.
Blingtron hjælper lærere med at generere, kvalificere og udvikle innovative idéer samt skabe tværfaglige undervisningsforløb. Det særlige ved Blingtron er dets evne til at stimulere lærernes forestillingsevne, hvilket åbner op for uendelige læringsmuligheder. Værktøjet er designet til at gøre undervisningen både legende og lærerig, og målet er at integrere teknologiforståelse naturligt i børns udvikling.
Prøv det her: