Matomo

Ugens nyheder: AI - balancegang mellem effektivitet og integritet

· 13 min read
Ugens nyheder: AI - balancegang mellem effektivitet og integritet

Velkommen til denne uges nyhedsoverblik om kunstig intelligens i uddannelsessektoren. Vi har samlet de vigtigste historier, så du nemt kan følge med i udviklingen.

I denne uge kan du blandt andet læse om:

  • Læreres bekymringer om, hvordan chatbots som ChatGPT påvirker tillidsforholdet til eleverne og skaber uklarhed om, hvornår der er tale om snyd.
  • Det nyeste nummer af Gymnasieforskning, der stiller skarpt på kunstig intelligens og dens indflydelse på undervisningen. Gennem interviews og forskning præsenteres konkrete erfaringer fra gymnasier, hvor generativ AI både fremmer læring og udfordrer traditionelle undervisningsmetoder.
  • Følg med i Uddannelsesdebatten på Youtube.
  • De skjulte miljøomkostninger ved AI, herunder energiforbrug, CO2-udledning og vandforbrug til træning af sprogmodeller. En ny rapport sætter fokus på de etiske dilemmaer.
  • Jeppe Stricker rejser bekymring om danske uddannelsers afhængighed af Microsoft.
  • Microsofts nye opgraderinger til Copilot, som skal forbedre samarbejde og effektivitet ved hjælp af AI-assistenter i programmer som Excel, PowerPoint og Outlook.
  • Ny undersøgelse fra Reuters Institute og University of Oxford afslører, hvordan AI-systemer klarede spørgsmål og faktatjek ved valget i Storbritannien i 2024.
  • Et kommende webinar hos IT-vest med Pat Yongpradit fra Code.org.

Vi har også links til andre spændende artikler om AI's rolle i uddannelse, herunder om AI som hjælpelærer, personlig læringspartner og værktøj til feedbackgivning.

God læselyst!


Lærere ser ChatGPT som en udfordring for tilliden til eleverne

Flere lærere på Hareskov Skole oplever, at kunstig intelligens som ChatGPT udfordrer forholdet til eleverne og skaber uklarhed om, hvornår der er tale om snyd. Lærerne fortæller, at eleverne ser ChatGPT som en naturlig del af deres informationssøgning, og at grænsen mellem at bruge det som et værktøj og at snyde er blevet udvisket. Særligt i skriftlige opgaver er det svært at afgøre, om eleverne selv har skrevet teksten, eller om de har fået hjælp af generativ AI. Dette skaber en følelse af at “lege politi og røvere” med eleverne, hvilket ikke styrker relationen mellem lærer og elev.

Lærerne mener, at løsningen ikke er at forbyde AI, men at finde en balance, hvor eleverne lærer at bruge teknologien kritisk. Desuden efterspørger de mere efteruddannelse i AI-teknologi, gerne i samarbejde med eleverne, så begge parter kan lære at navigere i denne nye virkelighed. De foreslår også ændringer i undervisnings- og evalueringsmetoder, som f.eks. mere mundtlighed og fokus på personlig viden i opgaver.

Lærere: ChatGPT udfordrer lærer-elev-relationen
‘Vi leger politi og røvere med eleverne, når det kommer til kunstig intelligens’. Sådan lyder det fra tre lærere, der efterlyser mere mere efteruddannelse i brugen af redskaber som ChatGPT - og gerne sammen med eleverne.

Martin Exner, der står bag SkoleGPT, forstår lærernes frustration over AI i skolen. Særligt frygten for snyd skaber mistro og presser relationen mellem lærer og elev. Han argumenterer for, at skolen må tilpasse sig denne teknologiske udvikling, ligesom den gjorde med lommeregneren. I stedet for jagt på snyd bør fokus være på, hvordan elever kan bruge AI til læring, mens de fortsat skal lære selv at skrive og reflektere over AI’s resultater.

Manden bag SkoleGPT: ‘Jeg kan godt forstå, at AI gør det rigtig ubehageligt at være lærer lige nu’
Frygten for snyd med kunstig intelligens skaber en mistroisk stemning i klasserummet. Og det er faktisk et større problem end den reelle snyd, mener en af bagmændene bag chatbotten SkoleGPT.

Gymnasieforsking #32: Tema om generativ kunstig intelligens

I det nyeste nummer af Gymnasieforskning stilles der skarpt på kunstig intelligens og dens indflydelse på undervisningen. Gennem interviews og forskning præsenteres konkrete erfaringer fra gymnasier, hvor generativ AI både fremmer læring og udfordrer traditionelle undervisningsmetoder. Det undersøges, hvordan AI-værktøjer som ChatGPT kan styrke elevernes læringsprocesser, men også skabe nye udfordringer som snyd og svækket kritisk tænkning. Samtidig undersøges det, hvordan flersprogethedsdidaktik kan berige sprogfagene ved at introducere eleverne for nye sprog.

Herunder er en oversigt over de forskellige artikler, der findes i udgivelsen. Læs hele magasinet på gymnasieforskning.dk.

AI kan gøre mennesker både kloge og dumme

Kunstig intelligens påvirker hvem, vi er, og det, vi skal som mennesker? Det får konsekvenser for undervisning og læring. 
Interview med Helene Ratner og Anders Søgaard

AI i virkeligheden

Seks østjyske gymnasier har undersøgt muligheder og faldgruber ved at bruge kunstig intelligens i undervisningen. Mulighederne rummer også farerne, viser erfaringerne. 
Interview med Jakob Peter Thomsen og Nicolai Løvenholt

ChatGPT som hjælpelærer

ChatGPT kan fjerne ventetiden for elever, som har brug for hjælp. 
Interview med Katrine Oxenbøll Petersen

ChatGPT som study buddy

Elever har brugt ChatGPT til at udtænke forsøgsopstillinger i biologi. 
Interview med Regin Pindstrup

ChatGPT gør elever bevidste om genrer

Elever i samfundsfag bliver genrebevidste, når de giver feedback på tekster produceret af ChatGPT. 
Interview med Allan Mortensen

Debatten om AI minder om, da lommeregneren blev indført

Vi kan lære meget af lommeregnerens indtog i gymnasiet, når ChatGPT og andre sprogmodeller skal integreres i fag og eksaminer. 
Interview med Tina Warming Thisgaard

Magasin-oversigt - Gymnasieforskning
I vores digitale arkiv har du adgang til alle vores numre. For at få adgang til de enkelte numre skal din skole/institution abonnere på Gymnasieforskning og du skal være logget ind. I N D H O L D GF#32 Sprog4. Præsenter eleverne for mange sprog. Flersprogethedsdidaktik styrker elevernes sproglige opmærksomhed, motivation og glæde ved at lære […]

Uddannelsesdebatten 2024

Torsdag og fredag er Per og Claus til uddannelsesdebatten i Nr. Nissum, hvor vi skal holde et lille oplæg om faglig sorg. Hvis du kommer, er du mere end velkommen til at hive fat i os. Vi drikker gerne en kop kaffe og snakker generativ AI i uddannelse.

Ellers kan man følge med på YouTube.

Uddannelsesdebatten - et folkemøde om uddannelse
Video’s delen met vrienden, familie en de rest van de wereld
Se dette års program på uddannelsesdebatten
Se programmet for Uddannelsesdebatten og find de mange spændende oplægsholdere, forskere og debattører, der gæster dette års uddannelsesdebat!

AI's skjulte klimaomkostninger: Energi, CO2 og vandforbrug bag chatbots og sprogmodeller

En ny undersøgelse fra Hugging Face, udført af forskerne Sasha Luccioni, Bruna Trevelin og Margaret Mitchell, sætter fokus på de miljømæssige påvirkninger af kunstig intelligens. Undersøgelsen viser, at alle aspekter af AI-livscyklussen, fra udvinding af råmaterialer og fremstilling af AI-infrastruktur til interaktion med brugere, forbruger naturressourcer som energi, vand og mineraler samt udleder drivhusgasser. AI’s energiforbrug overstiger nu, hvad vedvarende energikilder kan levere, og den stigende brug af AI indvarsler betydelige miljømæssige konsekvenser.

Herunder har vi samlet de vigtigste fund fra undersøgelsen. Flere steder tager de udgangspunkt i BLOOM, som er en stor flersproget open source-sprogmodel.

Energiforbrug

  • Træning af store sprogmodeller kan udlede CO2 svarende til fem bilers udledninger i løbet af deres levetid.
  • Afviklingen af BLOOM i skyen krævede 40,32 kWh energi om dagen, hvilket svarer til ca. 1.110 smartphoneopladninger.
  • En ChatGPT-forespørgsel bruger ca. 2,9 Wh energi, sammenlignet med 0,3 Wh for en almindelig websøgning.

CO2-udledning

  • Anvendelsen af BLOOM-sprogmodellen i skyen udledte ca. 19 kg CO2-ækvivalenter om dagen.
  • BLOOM-sprogmodellen udledte i alt 50 ton CO2-ækvivalenter under træning.

Vandforbrug

  • For hver 10-50 prompts til GPT-3-modellen bruges der ca. 500 mL vand, afhængigt af datacenterets effektivitet.
  • Et gennemsnitligt hyperscale-datacenter, som dem, der bruges til træning af AI-modeller, bruger ca. 2,1 millioner liter vand dagligt.

Fordeling af udledninger under træning

  • For BLOOM-modellen skyldtes 50 % af CO2-udledningerne energiforbrug fra GPU’er under træning.
  • 29 % stammede fra datacenterets tomgangsforbrug (energi til opvarmning/køling, netværk, lagring osv.).
  • 22 % af udledningerne kom fra GPU-fremstillingsprocessen.

Fremtidsprognoser

  • Energiforbruget i datacentre forventes at fordobles fra 2022 til 2026 og vil svare til hele Japans energiforbrug.
  • CO2-aftrykket fra informations- og kommunikationsteknologi anslås at være mindst lige så stort som CO2-aftrykket fra verdens samlede flytrafik.

Forskerne fra Hugging Face påpeger, at der er behov for mere gennemsigtighed fra tech-virksomhederne for at få et fuldt billede af AI's miljøpåvirkninger. Tekniske, adfærdsmæssige, organisatoriske og politiske tiltag kan hjælpe med at reducere AI's miljøaftryk, f.eks. mere effektive modeller, brug af vedvarende energi, måling af energiforbrug og indførelse af standarder.

Lovgivningsmæssigt arbejder EU på at håndtere AI's miljøpåvirkninger gennem European Green Deal, AI Act og energieffektivitetsdirektiverne. I USA er et lovforslag blevet introduceret for at undersøge AI's miljøkonsekvenser. Lande som Spanien, Canada og Frankrig har også fokus på bæredygtig AI i deres nationale strategier.

Læs hele undersøgelsen her:

The Environmental Impacts of AI -- Primer
A Blog post by Sasha Luccioni on Hugging Face

Læs også:


Microsofts grønne facade og dilemmaet for dansk uddannelse

Jeppe Stricker har udgivet et interessant nyhedsbrev på baggrund af, at The Atlantic stiller spørgsmål ved Microsofts grønne image, hvilket skaber bekymring om danske uddannelsesinstitutioners afhængighed af tech-giganten. Selvom Microsoft har markedsført sig som en bæredygtig virksomhed med ambitioner om at blive CO2-negativ inden 2030, viser interne dokumenter, at virksomheden aktivt støtter olie- og gasindustrien med AI-løsninger, der øger produktionen af fossile brændstoffer. Selvom Microsoft argumenterer for, at deres teknologi reducerer udledninger, er effekten minimal i forhold til den samlede klimabelastning fra fossile energikilder.

Denne dobbeltmoral er problematisk i en tid, hvor danske uddannelsesinstitutioner forpligter sig dybere til Microsofts produkter, især Copilot, uden at tage højde for de miljømæssige og etiske konsekvenser. Med en massiv udrulning af Copilot står institutionerne over for et dilemma: Hvordan kan de på troværdig vis undervise i bæredygtighed og etik, når de samtidig er afhængige af teknologi fra en virksomhed, der måske undergraver disse værdier?

Afsløringen rejser spørgsmålet om, hvorvidt uddannelsessektoren skal genoverveje sit partnerskab med Microsoft og i højere grad kræve gennemsigtighed og bæredygtige alternativer. Dette kræver en koordineret indsats på tværs af sektoren og en større politisk debat om teknologiens rolle i uddannelsessystemet.

Læs Jeppes nyhedsbrev her:

Microsofts grønne dobbeltspil og konsekvenserne for dansk uddannelse
Microsoft tegner et billede af sig selv som en ansvarlig aktør i klimakrisen, men The Atlantic har afsløret en anden virkelighed bag den grønne facade.Jeg troede egentlig, at jeg med artiklerne Den ubekvemme sandhed om Microsoft Copilot og Skyggesiderne ved AI og uddannelse for en tid havde dækket de etiske og miljømæssige problemstillinger vedrørende generativ AI i tilstrækkeligt omfang. Men en artikel i The Atlantic med titlen Microsoft’s Hypocrisy on AI har ændret dette billede. Avisen afslør

Microsoft Copilot Wave 2: Nye opgraderinger med fokus på samarbejde og effektivitet

Microsoft har præsenteret en række opgraderinger i deres Copilot AI-assistent under “Microsoft 365 Copilot: Wave 2”-eventen, som skal forbedre brugeroplevelsen for både virksomheder og private. Opdateringerne inkluderer nye funktioner i Microsoft 365-applikationerne, herunder Excel, PowerPoint, Teams og Outlook.

En af de mest markante nyheder er “Pages”-funktionen i BizChat, der gør det muligt for brugere at samarbejde om AI-genererede indsigter på tværs af teams. Excel-brugere kan nu også integrere Python i deres regneark uden at skrive kode, hvilket giver muligheder for avanceret dataanalyse. PowerPoint har fået en funktion, der kan generere en præsentationsskitse baseret på et emne, mens Teams og Outlook nu kan tilbyde opsummeringer af møder og prioritere e-mails efter vigtige nøgleord.

Desuden er der blevet tilføjet en “Copilot Agent Builder”, som gør det muligt at skabe skræddersyede AI-agenter, der kan automatisere opgaver i apps som SharePoint og Microsoft 365. Microsoft bekræftede også, at Copilot nu benytter OpenAI’s GPT-4-model for hurtigere og mere præcise svar.

Microsoft Copilot’s Wave 2 is here. Everything you need to know
Microsoft has released several Copilot upgrades to compete with OpenAI’s models.
Microsoft 365 Copilot Wave 2: Pages, Python in Excel, and agents | Microsoft 365 Blog
We’re launching the next wave of Microsoft 365 Copilot, bringing together web, work, and pages as a complete new design system for work. Learn more.

Chatbots’ præcision i svar om det britiske valg i 2024

Reuters Institute og University of Oxford har udgivet en omfattende undersøgelse af, hvordan ChatGPT-4, Google Gemini og Perplexity.ai håndterede spørgsmål og faktatjek om det britiske parlamentsvalg i juli 2024.

  • Perplexity.ai og ChatGPT-4o gav generelt svar, mens Googles Gemini ofte afstod fra at besvare valgrelaterede spørgsmål.
  • Både ChatGPT-4o og Perplexity.ai var normalt direkte i deres svar, med få tilfælde af svar, der ikke er ligetil.
  • Deres analyse af dataene viste, at ChatGPT-4o gav korrekte svar 78 % af gangene, mens Perplexity.ai var korrekte 83 % af gangene. Resten af ​​svarene blev anset for enten delvist korrekte eller falske. Det er vigtigt at være klar over, at det kan være svært at vurdere nøjagtigheden af ​​en chatbots output, hvor forskellige tilgange giver forskellige resultater.
  • ChatGPT-4o og Perplexity.ai leverede ofte kilder i deres svar, inklusive dem fra velkendte og betroede nyhedsorganisationer, myndigheder og faktatjekkere.
  • Begge chatbots linkede overvejende til nyhedskilder i svar, hvor de leverede kilder, med officielle kilder, faktatjekkere og andre et stykke bagud.
  • Perplexity.ai linkede konsekvent til specifikke kilder (websider, der klart relaterer til en påstand), ofte mere end ChatGPT-4o, som nogle gange leverede generiske kilder (links til et websted, der ikke direkte relaterer til svaret eller påstanden).

Forskerne bemærkede også, at mens chatbots’ output ofte var korrekt, er der stadig usikkerheder omkring de såkaldte “hallucinationer”, hvor AI genererer falsk information. Rapporten fremhæver, at selvom chatbots’ præcision er vigtig, skal brugere være opmærksomme på mulige fejl, især i politiske sammenhænge.

Læs hele undersøgelsen her:

How generative AI chatbots responded to questions and fact-checks about the 2024 UK general election
This factsheet looks at how well three chatbots respond to questions and fact-checks about the 2024 UK general election.

Webinar hos IT-vest, tirsdag den 22. oktober 2024, fra kl. 15:30 til 16:30.

Leading While Learning in an Age of AI: Practical Guidance and Policies

På dette webinar vil Pat Yongpradit give et oplæg under titlen Leading While Learning in an Age of AI: Practical Guidance and Policies. Webinaret henvender sig til undervisere inden for alle fag samt til personer, der arbejder med ledelse og politik omkring uddannelse og AI.

Om webinaret, der vil foregå på engelsk, fortæller Pat Youngpradit bl.a.: "This webinar focuses on providing practical guidance and policies for developing the enabling conditions for AI literacy in classrooms, schools, and education systems. We will look at the opportunities and risks of AI in education, use cases and their ethical concerns, and popular AI tools that are being used in classrooms."

Webinar 22. oktober 2024: Leading While Learning in an Age of AI
Leading While Learning in an Age of AI: Practical Guidance and Policies

Ugens andre nyheder

Lærerforening: AI skal ikke bedømme opgaver i gymnasiet
Lærerforening: AI skal ikke bedømme opgaver i gymnasiet
#021: Nu kan ChatGPT tænke før den taler!
I denne udgave af nyhedsbrevet dykker jeg ned i en af de mest indflydelsesrige teorier om menneskelig tænkning, nemlig Daniel Kahnemans Model 1 og Model 2-tænkning. Jeg undersøger ikke kun, hvordan disse mentale processer fungerer, men også hvordan OpenAI’s nye o1-preview-model bygger videre på diss
Chatbots can persuade people to stop believing in conspiracy theories
AI is skilled at tapping into vast realms of data and tailoring it to a specific purpose—making it a highly customizable tool for combating misinformation.
Sådan har SDU’s forskerstøtte opnået europæisk førerposition inden for AI - Filantropi
Da Es­ben Flindt i ja­nu­ar 2018 til­t­rå­d­te som chef for for­sker­støt­te­en­he­den på Syd­dansk Uni­ver­si­tet, var op­ga­ven klar. Uni­ver­si­te­tet vil­le sat­se me­re på at skaf­fe in­ter­na­tio­na­le mid­ler til forsk­ning, og det skul­le han og et nyt for­sker­støt­te­team bi­dra­ge til. “Vi kun­ne se, at i for­hold til den me­get hø­je forsk­nings­høj­de, vi har, så tog vi fak­tisk alt […]
Kunstig intelligens kan give alle elever adgang til uddannelse af topkvalitet – hvis den får lov
Læs mere her.
It-afdelingerne bliver fyldt med humaniora i fremtiden. Er I klar?
Klumme: It-branchen kommer til at forandre sig hurtigere, end du kan nå at sige datamodellering. I den forandring kommer humaniora til at spille en afgørende rolle.
Hvordan kan man bruge AI på skolerne?
ChatGPT skal ikke skrive din tyske stil for dig. Men hvad skal den så?
LinkedIn is training AI models on your data
There are two opt-outs available.