Velkommen til denne uges nyhedsoverblik om kunstig intelligens i uddannelsessektoren. Vi har samlet de vigtigste historier, så du nemt kan følge med i udviklingen.
I denne uge kan du blandt andet læse om:
- Læreres bekymringer om, hvordan chatbots som ChatGPT påvirker tillidsforholdet til eleverne og skaber uklarhed om, hvornår der er tale om snyd.
- Det nyeste nummer af Gymnasieforskning, der stiller skarpt på kunstig intelligens og dens indflydelse på undervisningen. Gennem interviews og forskning præsenteres konkrete erfaringer fra gymnasier, hvor generativ AI både fremmer læring og udfordrer traditionelle undervisningsmetoder.
- Følg med i Uddannelsesdebatten på Youtube.
- De skjulte miljøomkostninger ved AI, herunder energiforbrug, CO2-udledning og vandforbrug til træning af sprogmodeller. En ny rapport sætter fokus på de etiske dilemmaer.
- Jeppe Stricker rejser bekymring om danske uddannelsers afhængighed af Microsoft.
- Microsofts nye opgraderinger til Copilot, som skal forbedre samarbejde og effektivitet ved hjælp af AI-assistenter i programmer som Excel, PowerPoint og Outlook.
- Ny undersøgelse fra Reuters Institute og University of Oxford afslører, hvordan AI-systemer klarede spørgsmål og faktatjek ved valget i Storbritannien i 2024.
- Et kommende webinar hos IT-vest med Pat Yongpradit fra Code.org.
Vi har også links til andre spændende artikler om AI's rolle i uddannelse, herunder om AI som hjælpelærer, personlig læringspartner og værktøj til feedbackgivning.
God læselyst!
Lærere ser ChatGPT som en udfordring for tilliden til eleverne
Flere lærere på Hareskov Skole oplever, at kunstig intelligens som ChatGPT udfordrer forholdet til eleverne og skaber uklarhed om, hvornår der er tale om snyd. Lærerne fortæller, at eleverne ser ChatGPT som en naturlig del af deres informationssøgning, og at grænsen mellem at bruge det som et værktøj og at snyde er blevet udvisket. Særligt i skriftlige opgaver er det svært at afgøre, om eleverne selv har skrevet teksten, eller om de har fået hjælp af generativ AI. Dette skaber en følelse af at “lege politi og røvere” med eleverne, hvilket ikke styrker relationen mellem lærer og elev.
Lærerne mener, at løsningen ikke er at forbyde AI, men at finde en balance, hvor eleverne lærer at bruge teknologien kritisk. Desuden efterspørger de mere efteruddannelse i AI-teknologi, gerne i samarbejde med eleverne, så begge parter kan lære at navigere i denne nye virkelighed. De foreslår også ændringer i undervisnings- og evalueringsmetoder, som f.eks. mere mundtlighed og fokus på personlig viden i opgaver.
Martin Exner, der står bag SkoleGPT, forstår lærernes frustration over AI i skolen. Særligt frygten for snyd skaber mistro og presser relationen mellem lærer og elev. Han argumenterer for, at skolen må tilpasse sig denne teknologiske udvikling, ligesom den gjorde med lommeregneren. I stedet for jagt på snyd bør fokus være på, hvordan elever kan bruge AI til læring, mens de fortsat skal lære selv at skrive og reflektere over AI’s resultater.
Gymnasieforsking #32: Tema om generativ kunstig intelligens
I det nyeste nummer af Gymnasieforskning stilles der skarpt på kunstig intelligens og dens indflydelse på undervisningen. Gennem interviews og forskning præsenteres konkrete erfaringer fra gymnasier, hvor generativ AI både fremmer læring og udfordrer traditionelle undervisningsmetoder. Det undersøges, hvordan AI-værktøjer som ChatGPT kan styrke elevernes læringsprocesser, men også skabe nye udfordringer som snyd og svækket kritisk tænkning. Samtidig undersøges det, hvordan flersprogethedsdidaktik kan berige sprogfagene ved at introducere eleverne for nye sprog.
Herunder er en oversigt over de forskellige artikler, der findes i udgivelsen. Læs hele magasinet på gymnasieforskning.dk.
AI kan gøre mennesker både kloge og dumme
Kunstig intelligens påvirker hvem, vi er, og det, vi skal som mennesker? Det får konsekvenser for undervisning og læring.
Interview med Helene Ratner og Anders Søgaard
AI i virkeligheden
Seks østjyske gymnasier har undersøgt muligheder og faldgruber ved at bruge kunstig intelligens i undervisningen. Mulighederne rummer også farerne, viser erfaringerne.
Interview med Jakob Peter Thomsen og Nicolai Løvenholt
ChatGPT som hjælpelærer
ChatGPT kan fjerne ventetiden for elever, som har brug for hjælp.
Interview med Katrine Oxenbøll Petersen
ChatGPT som study buddy
Elever har brugt ChatGPT til at udtænke forsøgsopstillinger i biologi.
Interview med Regin Pindstrup
ChatGPT gør elever bevidste om genrer
Elever i samfundsfag bliver genrebevidste, når de giver feedback på tekster produceret af ChatGPT.
Interview med Allan Mortensen
Debatten om AI minder om, da lommeregneren blev indført
Vi kan lære meget af lommeregnerens indtog i gymnasiet, når ChatGPT og andre sprogmodeller skal integreres i fag og eksaminer.
Interview med Tina Warming Thisgaard
Uddannelsesdebatten 2024
Torsdag og fredag er Per og Claus til uddannelsesdebatten i Nr. Nissum, hvor vi skal holde et lille oplæg om faglig sorg. Hvis du kommer, er du mere end velkommen til at hive fat i os. Vi drikker gerne en kop kaffe og snakker generativ AI i uddannelse.
Ellers kan man følge med på YouTube.
AI's skjulte klimaomkostninger: Energi, CO2 og vandforbrug bag chatbots og sprogmodeller
En ny undersøgelse fra Hugging Face, udført af forskerne Sasha Luccioni, Bruna Trevelin og Margaret Mitchell, sætter fokus på de miljømæssige påvirkninger af kunstig intelligens. Undersøgelsen viser, at alle aspekter af AI-livscyklussen, fra udvinding af råmaterialer og fremstilling af AI-infrastruktur til interaktion med brugere, forbruger naturressourcer som energi, vand og mineraler samt udleder drivhusgasser. AI’s energiforbrug overstiger nu, hvad vedvarende energikilder kan levere, og den stigende brug af AI indvarsler betydelige miljømæssige konsekvenser.
Herunder har vi samlet de vigtigste fund fra undersøgelsen. Flere steder tager de udgangspunkt i BLOOM, som er en stor flersproget open source-sprogmodel.
Energiforbrug
- Træning af store sprogmodeller kan udlede CO2 svarende til fem bilers udledninger i løbet af deres levetid.
- Afviklingen af BLOOM i skyen krævede 40,32 kWh energi om dagen, hvilket svarer til ca. 1.110 smartphoneopladninger.
- En ChatGPT-forespørgsel bruger ca. 2,9 Wh energi, sammenlignet med 0,3 Wh for en almindelig websøgning.
CO2-udledning
- Anvendelsen af BLOOM-sprogmodellen i skyen udledte ca. 19 kg CO2-ækvivalenter om dagen.
- BLOOM-sprogmodellen udledte i alt 50 ton CO2-ækvivalenter under træning.
Vandforbrug
- For hver 10-50 prompts til GPT-3-modellen bruges der ca. 500 mL vand, afhængigt af datacenterets effektivitet.
- Et gennemsnitligt hyperscale-datacenter, som dem, der bruges til træning af AI-modeller, bruger ca. 2,1 millioner liter vand dagligt.
Fordeling af udledninger under træning
- For BLOOM-modellen skyldtes 50 % af CO2-udledningerne energiforbrug fra GPU’er under træning.
- 29 % stammede fra datacenterets tomgangsforbrug (energi til opvarmning/køling, netværk, lagring osv.).
- 22 % af udledningerne kom fra GPU-fremstillingsprocessen.
Fremtidsprognoser
- Energiforbruget i datacentre forventes at fordobles fra 2022 til 2026 og vil svare til hele Japans energiforbrug.
- CO2-aftrykket fra informations- og kommunikationsteknologi anslås at være mindst lige så stort som CO2-aftrykket fra verdens samlede flytrafik.
Forskerne fra Hugging Face påpeger, at der er behov for mere gennemsigtighed fra tech-virksomhederne for at få et fuldt billede af AI's miljøpåvirkninger. Tekniske, adfærdsmæssige, organisatoriske og politiske tiltag kan hjælpe med at reducere AI's miljøaftryk, f.eks. mere effektive modeller, brug af vedvarende energi, måling af energiforbrug og indførelse af standarder.
Lovgivningsmæssigt arbejder EU på at håndtere AI's miljøpåvirkninger gennem European Green Deal, AI Act og energieffektivitetsdirektiverne. I USA er et lovforslag blevet introduceret for at undersøge AI's miljøkonsekvenser. Lande som Spanien, Canada og Frankrig har også fokus på bæredygtig AI i deres nationale strategier.
Læs hele undersøgelsen her:
Læs også:
- A bottle of water per email: the hidden environmental costs of using AI chatbots | The Washington Post.
- Microsoft deal would reopen Three Mile Island nuclear plant to power AI | The Washington Post.
Microsofts grønne facade og dilemmaet for dansk uddannelse
Jeppe Stricker har udgivet et interessant nyhedsbrev på baggrund af, at The Atlantic stiller spørgsmål ved Microsofts grønne image, hvilket skaber bekymring om danske uddannelsesinstitutioners afhængighed af tech-giganten. Selvom Microsoft har markedsført sig som en bæredygtig virksomhed med ambitioner om at blive CO2-negativ inden 2030, viser interne dokumenter, at virksomheden aktivt støtter olie- og gasindustrien med AI-løsninger, der øger produktionen af fossile brændstoffer. Selvom Microsoft argumenterer for, at deres teknologi reducerer udledninger, er effekten minimal i forhold til den samlede klimabelastning fra fossile energikilder.
Denne dobbeltmoral er problematisk i en tid, hvor danske uddannelsesinstitutioner forpligter sig dybere til Microsofts produkter, især Copilot, uden at tage højde for de miljømæssige og etiske konsekvenser. Med en massiv udrulning af Copilot står institutionerne over for et dilemma: Hvordan kan de på troværdig vis undervise i bæredygtighed og etik, når de samtidig er afhængige af teknologi fra en virksomhed, der måske undergraver disse værdier?
Afsløringen rejser spørgsmålet om, hvorvidt uddannelsessektoren skal genoverveje sit partnerskab med Microsoft og i højere grad kræve gennemsigtighed og bæredygtige alternativer. Dette kræver en koordineret indsats på tværs af sektoren og en større politisk debat om teknologiens rolle i uddannelsessystemet.
Læs Jeppes nyhedsbrev her:
Microsoft Copilot Wave 2: Nye opgraderinger med fokus på samarbejde og effektivitet
Microsoft har præsenteret en række opgraderinger i deres Copilot AI-assistent under “Microsoft 365 Copilot: Wave 2”-eventen, som skal forbedre brugeroplevelsen for både virksomheder og private. Opdateringerne inkluderer nye funktioner i Microsoft 365-applikationerne, herunder Excel, PowerPoint, Teams og Outlook.
En af de mest markante nyheder er “Pages”-funktionen i BizChat, der gør det muligt for brugere at samarbejde om AI-genererede indsigter på tværs af teams. Excel-brugere kan nu også integrere Python i deres regneark uden at skrive kode, hvilket giver muligheder for avanceret dataanalyse. PowerPoint har fået en funktion, der kan generere en præsentationsskitse baseret på et emne, mens Teams og Outlook nu kan tilbyde opsummeringer af møder og prioritere e-mails efter vigtige nøgleord.
Desuden er der blevet tilføjet en “Copilot Agent Builder”, som gør det muligt at skabe skræddersyede AI-agenter, der kan automatisere opgaver i apps som SharePoint og Microsoft 365. Microsoft bekræftede også, at Copilot nu benytter OpenAI’s GPT-4-model for hurtigere og mere præcise svar.
Chatbots’ præcision i svar om det britiske valg i 2024
Reuters Institute og University of Oxford har udgivet en omfattende undersøgelse af, hvordan ChatGPT-4, Google Gemini og Perplexity.ai håndterede spørgsmål og faktatjek om det britiske parlamentsvalg i juli 2024.
- Perplexity.ai og ChatGPT-4o gav generelt svar, mens Googles Gemini ofte afstod fra at besvare valgrelaterede spørgsmål.
- Både ChatGPT-4o og Perplexity.ai var normalt direkte i deres svar, med få tilfælde af svar, der ikke er ligetil.
- Deres analyse af dataene viste, at ChatGPT-4o gav korrekte svar 78 % af gangene, mens Perplexity.ai var korrekte 83 % af gangene. Resten af svarene blev anset for enten delvist korrekte eller falske. Det er vigtigt at være klar over, at det kan være svært at vurdere nøjagtigheden af en chatbots output, hvor forskellige tilgange giver forskellige resultater.
- ChatGPT-4o og Perplexity.ai leverede ofte kilder i deres svar, inklusive dem fra velkendte og betroede nyhedsorganisationer, myndigheder og faktatjekkere.
- Begge chatbots linkede overvejende til nyhedskilder i svar, hvor de leverede kilder, med officielle kilder, faktatjekkere og andre et stykke bagud.
- Perplexity.ai linkede konsekvent til specifikke kilder (websider, der klart relaterer til en påstand), ofte mere end ChatGPT-4o, som nogle gange leverede generiske kilder (links til et websted, der ikke direkte relaterer til svaret eller påstanden).
Forskerne bemærkede også, at mens chatbots’ output ofte var korrekt, er der stadig usikkerheder omkring de såkaldte “hallucinationer”, hvor AI genererer falsk information. Rapporten fremhæver, at selvom chatbots’ præcision er vigtig, skal brugere være opmærksomme på mulige fejl, især i politiske sammenhænge.
Læs hele undersøgelsen her:
Webinar hos IT-vest, tirsdag den 22. oktober 2024, fra kl. 15:30 til 16:30.
Leading While Learning in an Age of AI: Practical Guidance and Policies
På dette webinar vil Pat Yongpradit give et oplæg under titlen Leading While Learning in an Age of AI: Practical Guidance and Policies. Webinaret henvender sig til undervisere inden for alle fag samt til personer, der arbejder med ledelse og politik omkring uddannelse og AI.
Om webinaret, der vil foregå på engelsk, fortæller Pat Youngpradit bl.a.: "This webinar focuses on providing practical guidance and policies for developing the enabling conditions for AI literacy in classrooms, schools, and education systems. We will look at the opportunities and risks of AI in education, use cases and their ethical concerns, and popular AI tools that are being used in classrooms."