Når generativ AI producerer indhold, gør den det med en hastighed, kvalitet og volumen, som vi ikke tidligere har set før, og det er blevet stadig sværere for os at skelne mellem indhold skabt af mennesker og det, som er frembragt af generativ AI. Denne udfordring kommer vi til at møde overalt i vores samfund, og dermed bliver det også nødvendigt at unge, ja faktisk alle mennesker, er dannet til at forstå og være kritisk over for det indhold, de møder i dagligdagen. Målet med denne artikel er ikke at komme med en udtømmende artikel omkring kunstig intelligens, misinformation og disinformation, for det er ikke muligt - vi kommer kun til at skrabe i overfladen, for teknologien accelererer for tiden.
Om kort tid er der valg i Storbritannien og USA. Ja faktisk er der mindst 64 demokratiske valg i verden i 2024, og hvad gør det ved vores demokrati, at AI-genererede tekster og deepfakes kan manipulere med disse valg? Det er svært ikke at forestille sig, at kunstig intelligens på en eller anden måde vil påvirke disse valg, så bør vi ikke være mere på vagt for at sikre, at dette ikke sker? Vi kommer ikke med et entydigt svar, men vi lægger op til, at generativ AI skal inddrages i undervisningen, således at eleverne bliver dannet og oplyst om, hvordan misinformation og disinformation spiller en større rolle end tidligere.
De største udfordringer i forhold til de kommende valg, er ikke kun at de enkelte vælgere risikerer at lade sig påvirke. Med AI-genereret indhold skabes der grobund for endnu større polaritet i samfundet, ved at bruge AI til at bekræfte modtagerens eksisterende overbevisninger i de ekkokamre de befinder sig i. I et stærkt polariseret samfund er demokratiske processer i sagens natur kraftigt udfordrede.
Man risikerer også, at underminere tilliden til de nyhedskilder, vi traditionelt opfatter som troværdige - selvom de ikke benytter sig af manipuleret indhold. Det kan, i værste fald medføre, at selve den demokratiske valgproces er i fare. Der vil altid være en lille tvivl om en regering er valgt eller ikke valgt på baggrund af falske nyheder. Det kan i sidste ende føre til censur af medier, og så er ytringsfriheden og selve demokratiet i fare.
Emnet er oplagt i fag som digital teknologiforståelse (grundskolen), dansk, engelsk, samfundsfag, kommunikation og IT eller informatik. Til sidst i artiklen er der en række kilder, hvor man kan læse mere om emnet. Disse kilder vil også være gode, når eleverne selv skal undersøge emnet.
Misinformation og disinformation vil være gennemgående begreber i artiklen, men de har meget forskellige betydninger, og vi vil derfor starte med kort at udfolde disse begreber.
Misinformation og disinformation
Misinformation defineres som ikke-intenderede (ubevidste), misvisende eller falske oplysninger fra en afsender til en eller flere andre modtagere (Søe, 2014). Her er afsenderen ikke nødvendigvis klar over, at det indhold, vedkommende deler, er falsk, og afsenderen har ingen intention om at vildlede modtageren. Derimod vil disinformation være en intenderet (bevidst) handling for at vildlede og dermed dele falske informationer. Det er vigtigt at forstå forskellen på disse to begreber, og nogle gange bruges "fake news", selvom det er lidt mere uformelt.
Når der sker spredning af disinformation, kan det have en påvirkning af mediebilledet. Især hvis den enkelte bruger videreformidler disse informationer, kan det ende som misinformation, fordi brugeren ikke er klar over det.
Tidligere har f.eks. konspirationsteoretikere brugt tid og kræfter på at skrive disinformation, men det har været begrænset af deres egen produktivitet (og evner). Det har betydet, at deres stemme ikke har fyldt ret meget i den offentlige debat, og dermed har det samtidig resulteret i, at deres påvirkning har været ret begrænset. Ved at bruge kunstig intelligens er det blevet væsentligt billigere og nemmere at producere store mængder af disinformation, som er meget overbevisende, og sende det ud på nettet.
World Economic Forum (WEF) forudsiger i deres Global Risk Report, at misinformation og disinformation på kort sigt er en af de største udfordringer for den globale økonomi. Udfordringen er og bliver, at vi får sværere og sværere ved at skelne det manipulerede og kunstigt skabte indhold fra virkeligheden, især når avancerede sprogmodeller som ChatGPT og Bard gør det nemt at autogenerere indhold. Vi har tidligere på Viden.AI set på AutoGPT, hvor vi satte et mål, og derefter lod sprogmodellen lave strategier for at løse målet, og hvor systemet fortsatte med at udvikle nye strategier for at nå målet. Det sker autonomt uden at brugerne skal komme med input eller foretage nye valg.
Når vi her nævner AutoGPT, så er det, fordi vi sideløbende med at vi skrev artiklen, hvor vi blev en lille smule skræmt over teknologien, også så, at der blev udviklet en disinformations-hjemmeside som hedder CounterCloud.
CounterCloud - autogenerering af disinformation
Nedenfor ses en introduktion til CounterCloud. Vi anbefaler, at du ser den, før du læser videre i artiklen, da den giver et godt indtryk af hele projektet.
Målet med CounterCloud var at få kunstig intelligens til at skrive modsatte artikler (counter articles), og her opbyggede de et system til at skabe falske historier, falske historiske begivenheder for at skabe tvivl om nøjagtigheden af den originale artikel. Hver artikel blev skrevet i forskellige stilarter og med forskellige synspunkter, og der blev udviklet falske journalister som afsender på indholdet, billeder der passede til indholdet og falske kommentarer.
Dog skal det siges at det er uvist, hvem der står bag hjemmesiden, da kommunikationen foregår via en Proton-mail. Personen i den anden ende skriver under med navnet Nea Paw, og hævder at være en cybersikkerhedsprofessionel. Vi har ikke været i stand til at finde ud af mere om personen, udover at vedkommende ikke er fra Kina, Rusland eller Iran...
I projektet fik skaberen skabt et automatisk disinformationssystem, der ved hjælp af kunstig intelligens skabte nyt indhold til nettet. Projektet kostede kun 400 USD om måneden og genererede 20 artikler og 50 tweets om dagen. For 4000 USD pr. måned estimerer skaberne, at systemet vil kunne generere 200 artikler om dagen.
På to måneder lavede Nea og en kollega et fuldt autonomt AI-drevet system, der genererede overbevisende indhold 90% af tiden, 24 timer i døgnet, syv dage om ugen.
CounterCloud er udelukkende lavet for at vise, hvor nemt det er at lave disinformation og sende det ud på nettet. Selve hjemmesiden er bag login og ingen artikler eller tweets er blevet offentliggjort. Herunder kan man se to skærmbilleder fra siden.
Det følgende er et udpluk af et interview med Nea Paw, som er udført af Russian_OSINT. Hele interviewet kan læses her (er på russisk).
Egen oversættelse.
Russiske OSINT: Hvilke skridt bør organisationer og regeringer tage for at bekæmpe spredningen af disinformation fra AI?
Nea Paw: Det er svært at sige. Bevidsthed er det, der er brug for. Vi kan gå tilbage til at stole på rigtige mennesker, som jeg sagde tidligere, som er en pålidelig informationskilde med et ry.
Til en vis grad ændrer kunstig intelligens situationen dramatisk. Ved hjælp af AI kan enhver oprette en videooptagelse af optøjerne og rapportere, at det faktisk skete. Han kan endda uploade 4 videoer af den samme begivenhed fra forskellige vinkler, for eksempel angiveligt indsendt af 4 studerende under forskellige Twitter-konti.
Den helt store prøve kommer til at stå ved det amerikanske præsidentvalg i 2024, for med sprogmodellerne er det muligt at skrive tekster, der i højere grad vil kunne påvirke vælgerne. Indholdet vil komme fra begge sider af det politiske system og blive distribueret gennem sociale medier, taler, debatindlæg, lokale hjemmesider mm. og vil være målrettet den enkelte vælger. Personligt forudser vi, at den kandidat, som er bedst til at udnytte kunstig intelligens, også vil ende med at blive præsident i USA.
Herunder har vi samlet et par slides fra en præsentation, der blev afholdt i april 2023, om CounterCloud, og det giver et godt indblik i, hvordan de har udviklet hjemmesiden.
Hvor nemt er det selv at lave disinformation?
Det kræver meget få ressourcer og er ret nemt, selv at lave disinformation, og herunder udforsker vi mulighederne. Man skal dog være opmærksom på, at det ikke er lovligt at klone andres stemmer eller at lave deepfake-videoer eller billeder. Indholdet herunder er udelukkende lavet for at illustrere mulighederne, og det er helt bevidst ikke lavet så godt, som det er muligt.
Enhver, der har adgang til en sprogmodel, kan generere tekster, som kan bruges til at manipulere nyhedsbilledet, men efterhånden har de opsat en række filtre, der gør, at man bliver mødt med advarsler. Samtidig er der grænser for, hvad man kan få den til at skrive. Herunder er et eksempel, hvor vi beder den skrive en tekst, hvor Paven støtter Donald Trumps kampagne for at blive præsident i 2024. Vi har med vilje valgt et meget urealistisk eksempel, da det ellers kan misforstås.
For at gøre historien mere troværdig har vi brugt MidJourney til at generere en række billeder. Eftersom paven og Donald Trump optræder mange gange i træningssættet, var det forholdsvis nemt at lave billeder, der ligner.
Donald Trump (Version 2.0)
For at fuldføre projektet har vi også klonet Donald Trumps stemme, og herunder kan du læse teksten og lytte til hans tale. Han taler lidt for hurtigt, men med en times arbejde vil talen være noget bedre.
Etiske overvejelser i undervisningen
Når generativ AI producerer misinformation og disinformation, er der en række etiske spørgsmål, som vi kan arbejde med i undervisningen. Det handler i høj grad om digital dannelse og at udvikle elevernes kritiske tænkning, således at de har gode forudsætninger for at vurdere og forholde sig kritisk til det indhold, de møder på nettet. DR har lavet en undersøgelse hvor det er slående hvor lidt unge tænker over at fotos og videoer kan være manipuleret.
Herunder er en række etiske spørgsmål, som man kan tage op i undervisningen, og som kan bruges til at diskutere emnet ud fra.
- Ansvarlig brug af generativ AI: Hvem bærer ansvaret, når generativ AI producerer tekster, der indeholder skadelig information? Denne diskussion skal omfatte en forståelse af, hvor ansvaret ligger – er det hos AI's skabere, brugere, eller er der behov for regulering på et højere plan? Hvordan reguleres så informationskvaliteten og troværdigheden øges og privatlivets fred sikres, uden at gå på kompromis med ytringsfrihed og teknologisk udvikling.
- Udfordringer for demokratiet: Undersøg og diskuter, hvordan AI-genererede tekster og deepfakes kan påvirke demokratiet. Hvordan kan sådanne teknologier manipulere offentlig mening og forstyrre demokratiske processer.
- Etiske retningslinjer: Diskutér behovet for etiske retningslinjer i udviklingen og anvendelsen af generativ AI. Eleverne skal overveje, hvordan eksisterende etiske rammer kan forbedres eller udvikles for at imødekomme de udfordringer, generativ AI medfører, herunder spørgsmål om ansvar, gennemsigtighed og samfundsmæssig påvirkning.
- Balance mellem frihed og sikkerhed: Overvej dilemmaet mellem åben adgang til generativ AI og risikoen for misbrug. Denne del bør også omfatte debatter om privatlivets fred, overvågning, censur og ytringsfrihed.
- Samfundsmæssige konsekvenser: Diskuter, hvordan vi kan forberede undervisningen, så eleverne kan navigere i et samfund, hvor AI spiller en stadig større rolle. Hvordan sikrer vi at hele vores samfund er rustet til at navigere i en digitaliseret virkelighed fyldt med mis- og disinformation, og ikke kun de unge der er under uddannelse lige nu?
Kilder
Hvis man vil vide mere om CounterCloud, så har vi herunder samlet en række kilder, der beskriver projektet.
Flere kilder
Søe, S. O.. (2014). Information, misinformation og disinformation: En sprogfilosofisk analyse. Tidsskrift for Informationsvidenskab Og Kulturformidling, 3(1), 21-30. https://doi.org/10.7146/ntik.v3i1.25959