Matomo

spring til indhold

SkoleGPT-debatten: Mellem sikkerhed og læring

Debatten om SkoleGPT rejser spørgsmålet: Hvordan balancerer vi sikkerhed og læring i AI-baseret undervisning? Er frygt og sensationsprægede debatter en hindring for digital dannelse, eller kræves der bedre regulering og undervisning?

· 6 minut læses

Indholdsfortegnelse

På det seneste har debatten om kunstig intelligens i undervisningen været præget af diskussionen om chatbotten SkoleGPT. Kontroversen opstod efter en artikel fra Danmarks Radio (DR), som i en dramatisk tone hævdede, at SkoleGPT kunne give detaljerede beskrivelser af selvskade og selvmord. Dækningen fokuserede på de potentielle risici ved, at børn og unge bruger teknologien.

Jeg vil kort gennemgå hele udfordringen, og måske er mere modererede sprogmodeller ikke vejen frem.

💡
Hvis du er i krise eller har selvmordstanker, kan du kontakte Livslinien på 70 201 201 alle dage mellem kl. 11 og 05. Du kan også chatte med Livslinien på livslinien.dk.
Chatbot lavet til folkeskoler chokerer eksperter: Gav detaljerede beskrivelser af selvskade
Efter DR har kontaktet folkene bag den danske chatbot SkoleGPT, har de nu ændret bottens svar.

Flere kilder kritiserer dog DR’s tilgang for at være ensidig og sensationspræget. Det påpeges, at DR aktivt opsøgte det kontroversielle output uden at oplyse deres metode eller nævne de mange tilfælde, hvor SkoleGPT ikke gav problematiske svar. Derudover kritiseres det, at nuancer og baggrundsinformation - herunder selve formålet med SkoleGPT - gik tabt.

Ove Christensen, specialkonsulent i digitalt kompetenceløft, mener, at fokus i stedet burde være på, hvordan elever bedst lærer at forstå og forholde sig kritisk til AI. I en LinkedIn-artikel argumenterer han for, at det egentlige problem ikke er sikkerhedshullerne i SkoleGPT, men manglen på systematisk undervisning i AI og digital dømmekraft i folkeskolen.

Ove Christensen påpeger også, at en mere sikker SkoleGPT ville kræve større investeringer, men at det centrale problem er fraværet af en dansk eller nordisk AI-model udviklet under demokratisk kontrol. Dette efterlader skoler afhængige af kommercielle AI-løsninger, der mangler tilstrækkelig regulering.

Generiske sygdomme – med udgangspunkt i debatten om SkoleGPT
Generativ kunstig intelligens (GenAI) er blevet en kæmpeindustri. Der investeres enorme summer i at udvikle sprogmodeller og udvikle tjenester, der på baggrund af sprogmodellerne kan generere noget, der simulere viden og indsigt om den verden vi lever i.

Sagen har også haft politiske konsekvenser. SF har bedt undervisningsminister Mattias Tesfaye (S) om at redegøre for, hvordan man vil sikre mere grundige tests af AI-systemer til skoler fremover. Partiets skoleordfører, Sigurd Agersnap, mener, at der er behov for begrænsninger på, hvilke svar chatbots til skolebrug kan give eleverne.

Efter beskrivelser af selvskade: SF vil have Tesfaye til at sikre mere test af AI-systemer til skoler
Hvordan sikrer vi mod nye tilfælde, hvor elever kan få voldsomme beskrivelser om selvskade og selvmord? Det skal undervisningsministeren svare på efter en sag om chatbotten SkoleGPT.

Laurits Rasmussen, CEO og medstifter af Pathfindr, foreslår i sit debatindlæg i Skolemonitor, at teknologien bruges under opsyn, f.eks. ved at indføre moderatorer, der overvåger samtaler og griber ind, hvis elever viser tegn på mistrivsel. Han sammenligner AI med andre værktøjer i skolen, der kan være farlige, hvis de bruges forkert – såsom knive i sløjdlokalet eller kemikalier i fysiktimen.

"Hvis vi lukker helt ned for alt indhold, der i nogle sammenhænge kan være skadeligt, men i andre kan være gavnligt, skubber vi vores børn ud på andre platforme – helt uden gårdvagter," skriver Laurits Rasmussen.

Debat: Sagen om SkoleGPT rejser flere væsentlige spørgsmål
Hvis vi lukker helt ned for alt indhold, som i nogle sammenhænge kan være skadeligt, men i andre kan være gavnligt, så skubber vi vores børn ud på andre platforme - helt uden gårdvagter, skriver debattør.

Vi anbefaler også, at man læser Malte von Sehesteds artikel på IT Torvet, hvor han påpeger, at AI-undervisning ikke er systematisk, hvilket efterlader elever dårligt rustet til at navigere digitalt.

Når man vælger frygt og sensation fremfor den grundige historie - IT Torvet
Sidste uges skarpe vinkling hos Danmarks Radio kan ende med at skade mere end det gør gavn for elevernes muligheder for at begå sig med AI.

Andre platforme har samme udfordring

De udfordringer, vi ser, er ikke unikke for AI-chatbots, og sociale medier som TikTok og Instagram kæmper allerede med udfordringer relateret til selvmord og selvskade. Og den store udfordring er nok snarere, at en almindelig googlesøgning vil kunne give de samme resultater som dem, DR kommer frem til. Og med en lille indsats vil man kunne finde mere åbne modeller, som ikke har nogen guardrails. Samtidig ser vi også tvivlsomme opslag på TikTok og Instagram, hvor børn i endnu højere grad bliver eksponeret for selvskade.

Sprogmodeller i undervisningen

Diskussionen om SkoleGPT illustrerer det grundlæggende dilemma, som skolerne står over for: Hvordan balancerer vi mellem behovet for at beskytte eleverne og nødvendigheden af at klæde dem på til en digital fremtid?

Spørgsmålet, man burde stille, er, om det ikke er bedre at have en sprogmodel i undervisningen, som i højere grad er åben, men hvor læreren didaktiserer den for eleven, end at eleven selv skal navigere i teknologien.

Mens debatten fortsætter, står det klart, at løsningen ikke kun ligger i at forbedre sikkerhedsfiltre, men også i at styrke den systematiske undervisning i teknologiforståelse og digital dømmekraft i skolen.


Digitalt Ansvar afslører: Instagram taler usandt, når de påstår at fjerne selvskadeindhold med AI | Digitalt Ansvar
Ny undersøgelse fra Digitalt Ansvar viser, at Instagram stadig ikke fjerner voldsomt selvskadeindhold og stik imod deres egen udmelding fravælger at bruge kunstig intelligens til automatisk at fjerne indholdet.
Digitalt Ansvar | NY ANALYSE AF TIKTOKS MØRKE UNIVERSER
Hvad er det, børn møder på TikTok? Og hvad betyder TikToks algoritmer for dem, der i forvejen udviser interesse for selvskade- og depressionsrelateret indhold?
Organisation: Børn eksponeres for indhold om selvskade på TikTok
Ifølge Digitalt Ansvar bliver børn præsenteret med omfattende indhold om selvskade og selvmord på TikTok.
På TikTok kunne Stinne dyrke det svære, det mørke og spejle sig i snitsår. Og så fik hun lyst til at skære i sig selv
En ond cirkel af algoritmer og afhængighed var nærmest umulig for den unge kvinde at slippe ud af. Når TikTok ikke sletter selvskadevideoer, fanger de flere som hende, fortæller hun.
Organisation: Børn eksponeres for indhold om selvskade på TikTok
Ifølge Digitalt Ansvar bliver børn præsenteret med omfattende indhold om selvskade og selvmord på TikTok.
Manglende EU-krav gør Telegram til et digitalt ingenmandsland, hvor ulovligt indhold deles uden konsekvenser : Digital - Altinget | Nyheder, analyser og debat om dansk politik
Kortlægningen af et illegalt marked for intimt materiale på Telegram viser en gang for alle, hvordan uregulerede digitale tjenester lokker kriminelle til og baner vejen for nye former for kriminalitet, skriver Ask Hesby Holm.

Seneste