I denne artikel vil jeg se på, hvad der sker med alle de indtastninger, vi foretager i fx ChatGPT, Google Bard eller Microsoft Bing, og hvorfor vi måske skal være forpasselige med at bruge det i undervisningen. Nogle gange glemmer vi, at den kunstige intelligens ikke er opstået med undervisning for øje, men mere er et produkt, der er styret af store techvirksomheder for at skabe profit. Eksempelvis er OpenAI gået fra at være en open source-virksomhed, der ønskede at gøre teknologien åben og tilgængelig for alle. Men efterhånden har den udviklet sig til en meget lukket virksomhed, der ikke vil fortælle om ændringer i sin nyeste model.
Det er væsentligt at forstå, at GPT er en forudtrænet model, der bygger på en eksisterende datamængde og ikke fortsætter med at udvikle sig eller lære, efter den er blevet implementeret. Dette betyder, at de svar, vi får fra GPT, er baseret på den viden, den har fået gennem sin forudgående træning, og ikke på nogen form for kontinuerlig tilpasning eller indlæring.
Ser vi fremad og tænker på de næste generationer af kunstig intelligens, er det interessant at overveje, hvordan disse modeller potentielt kan bruge adfærdsdata til yderligere træning og forbedring. I denne artikel vil jeg dykke ned i, hvordan fremtidige modeller muligvis kan indsamle og udnytte brugernes adfærdsdata for at forbedre deres præstationer og blive endnu mere menneskelige i deres kommunikation.
Læs også artiklerne:
- Fokus på privatliv
- Fokus på lukkede vidensdatabaser
- Overgang til automatiseringsetik
Overvågningskapitalismens hjælpende hånd: chatbotten
Den store udfordring, som sprogmodellerne kæmper med, er troværdighed i det, der skrives, og samtidig skal de også være så menneskelige, som det overhovedet er muligt. For at opnå både viden og troværdigt output er sprogmodellerne nødt til at pakke den rå data ind i en kommunikationsform, som appellerer til mennesker. I øjeblikket ser vi indpakningen som chatfunktionen i ChatGPT, men om kort tid vil Siri, Alexa og Cortana sikkert blive beriget med kunstig intelligens. Dermed vil vi kunne føre en samtale med sprogmodellerne, lige så naturligt som når vi snakker med en person. Men hvordan kan man lave en chatbot, der virker menneskelig? Svaret er ret simpelt: indsamling af brugernes adfærdsdata og træning af den kunstige intelligens ved hjælp af disse data.
Indsamling af adfærdsdata som betaling
Shoshana Zuboff forklarer i sin bog, Overvågningskapitalismens tidsalder, at etikken i den digitale tidsalder kan sammenlignes med behaviorist Burrhus Frederic Skinners såkaldte Skinnerboks. Skinnerboksen er et redskab til at undersøge adfærd hos dyr over tid, hvor dyret er isoleret fra omgivelserne. I boksen påvirkes dyret af positive og negative stimuli, som fx elektriske stød, mad, varme, lyde, lugte osv. Når en adfærd ledsages af en belønning, stiger sandsynligheden for, at den vil forekomme igen i fremtiden. Hvis adfærd til gengæld ledsages af en straf, vil det være mindre sandsynligt, at denne adfærd vil forekomme i fremtiden. Ved hjælp af forsøgene med Skinners boks mente psykologerne, at man kunne blive klogere på, hvordan dyret ville reagere på påvirkninger i den virkelige verden.
Vi kan sammenligne Skinners boks med chatrobotterne og den træning, der i øjeblikket foregår af mennesker uden nogen form for gennemsigtighed og uden nogen form for regulering.
Når vi skriver sammen med den kunstige intelligens i et chatvindue, så afslører vi vores adfærd til virksomhederne bag, præcis som forsøgsdyret gør det til forskeren i Skinnerboksen. Får vi en tekst, der giver mening, giver vi den måske et like. Er vi ikke tilfredse med en tekst eller et svar, beder vi den kunstige intelligens om at præcisere sit svar. Hver interaktion med chatbotten spejler menneskers kommunikation og skaber præcedens for chatbottens fremtidige adfærd.
Forskerne kalder denne metode for Reinforcement Learning with Human Feedback (RLHF), og gennem den trænes modellerne til at komme med svar, som modtageren finder tilfredsstillende. I denne træning modtager modellen belønninger for svar, på samme måde som man træner en hund med godbidder. Hvis modellen enten modtager en ulovlig forespørgsel eller kommer med et ulovligt svar, bliver disse markeret ved hjælp af menneskelig feedback. Dermed bliver modellen trænet til at filtrere disse og “lærer” både det gode svar, det dårlige svar, men også det svar, som overtræder virksomhedens retningslinjer.
Den kunstige intelligens bliver en skygge af menneskelig forståelse
Imellem mennesker kan der desuden være en del indforstået kommunikation i ikke at sige noget. Et kort nej kan fx betyde ja, eller måske, og kommentaren “Din store idiot” kan være positiv. Men når vi har set, hvad den kunstige intelligens har skrevet af tekster, behøver vi ikke ret meget fantasi til at forestille os, at den bliver endnu bedre til at svare/tale som et menneske. På et tidspunkt vil vi ikke kunne kende forskel, fordi den kunstige intelligens opfører sig som et menneske, og så skal vi først være bekymrede. Når vi fx sender en tekst til chatbotten, kommer der et svar, som nogle gange giver mening, men andre gange er lidt eller helt forkert. Her er vi allerede i gang med at give værdifulde informationer til den kunstige intelligens, samtidig med at vi træner nye måder at kommunikere med kunstig intelligens.
Vi skal dog altid tænke over, at mennesker har en fysisk oplevelse af den verden, vi begår os i, og at den oplevede kontekst har mange flere berøringspunkter end den kunstige intelligens. Mennesker processerer verden gennem alle dets sanser i en sådan grad, at den kunstige intelligens ikke kan følge med. Og den nuværende kunstig intelligens har intet begreb om den fysiske verden. Den handler på matematiske modeller og statistik for næste ord, tegn eller sætning (tokens) og kommer med et gæt på, hvad vi gerne vil høre.
Nu er jeg faktisk der, hvor jeg gerne vil hen med ovenstående tekst, for mens vi skriver eller taler til den kunstige intelligens i undervisningen, opsamles vores måde at kommunikere til og med den. Den menneskelige adfærd opsamles, bearbejdes og bruges efterfølgende til at modellerne kan være mere menneskelige. Nu er det ikke blot datapunkter fra de indsamlede databaser, som er vigtige, men også selve vores kommunikationsformer og menneskelige svarmønstre, der kortlægges og replikeres.
Mennesker handler ikke altid rationelt, som når vi fx gang på gang forsøger at få chatbotten til at svare et eller andet, som vi godt ved ikke er muligt ud fra retningslinjerne. Men vi gør det alligevel og hvorfor? Det er, fordi vi er nysgerrige, grænsesøgende og bygget til at lave fejl.
Lader vi modellen opsamle vores elevers kommunikation?
Hvis vi prøver at overføre ovenstående til vores undervisning, begynder vi faktisk at forstærke træningen af modellerne. Eleverne har et andet sprog end voksne, fx bruger de ofte ikke punktum i slutningen af tekstbeskeder, indsætter emojis eller erstatter ord med meget indforstået slang. De overholder højst sandsynligt ikke reglerne for retskrivning, og på den måde er de ved at udvikle og påvirke vores skriftsprog. Denne påvirkning har altid fundet sted, og det er en naturlig udvikling i vores sprog, men sprogmodellerne har svært ved at opsamle disse ændringer, fordi den er trænet til en anden type tekster. Ovenstående input er derfor guld værd for sprogmodellerne, fordi de kan have en snabel direkte nede i den aktuelle sprogudvikling. Det er ikke kun tekster fra Wikipedia eller Reddit, men liveforespørgsler, der kan give modellen flere menneskelige egenskaber og efterligne en hel generations kommunikation. Bl.a. når vi beder modellen om at ændre målgruppe i sit svar, vil den kunne forstå, hvordan den skal skrive til en elev på 14 år, samtidig med at teksten er pakket ind i ungdomskulturens kommunikationssprog.
Men her opstår endnu en udfordring, for modellen vil dermed begynde at påvirke elevernes kommunikationsmønstre ud fra, hvad den tidligere har fået af input og kan dermed virke selvforstærkende i en retning, som vi måske ikke ønsker. Det kan være, at, den er med til at forstærke fordomme eller stereotyper og dermed påvirke alle dele af den måde, vi kommunikerer på. Vi skal hele tiden tænke over, at det er amerikanske techvirksomheder, der styrer hele denne udvikling med profit for øje. Og lige nu gælder det om at komme først med den bedste sprogmodel, men også at opsamle data/adfærdsdata til at kunne træne den næste.
Vi bliver derfor nødt til at have en åben diskussion om alle disse etiske problemstillinger, for ellers er det techvirksomhederne, der styrer toget uden nogen form for regulering i hastighed eller retning.
Spørgsmål til den etiske diskussion:
- Er det etisk forsvarligt at bruge chatbots i undervisning, når de er udviklet og styret af store tech-virksomheder med profit for øje?
- Hvordan sikrer vi, at vi ved, hvorvidt det er et menneske eller en kunstig intelligens, vi snakker med - og er det vigtigt at vide det?
- Bør der være mere gennemsigtighed og regulering i træningen af den kunstige intelligens for at beskytte brugernes privatliv og sikkerhed?
- Bør vi være bekymrede for, hvordan den kunstige intelligens påvirker elevers skriftsprog og kommunikationsmønstre?
- Hvordan kan vi sikre, at kunstig intelligens ikke forstærker eksisterende fordomme og stereotyper i kommunikation og adfærd?
- Er det etisk forsvarligt at bruge chatbotter i undervisning, når de kan påvirke og ændre en hel generations kommunikation?
- Hvordan kan vi sikre, at den nye teknologi ikke underminerer elevernes evne til at tænke kritisk og udforske egne ideer og holdninger?