Matomo

Etiske aspekter ved brugen af chatrobotter i undervisning: spejling og afkodning af menneskelig adfærd

· 12 min read
Etiske aspekter ved brugen af chatrobotter i undervisning: spejling og afkodning af menneskelig adfærd

I denne artikel vil jeg se på, hvad der sker med alle de indtastninger, vi foretager i fx ChatGPT, Google Bard eller Microsoft Bing, og hvorfor vi måske skal være forpasselige med at bruge det i undervisningen. Nogle gange glemmer vi, at den kunstige intelligens ikke er opstået med undervisning for øje, men mere er et produkt, der er styret af store techvirksomheder for at skabe profit. Eksempelvis er OpenAI gået fra at være en open source-virksomhed, der ønskede at gøre teknologien åben og tilgængelig for alle. Men efterhånden har den udviklet sig til en meget lukket virksomhed, der ikke vil fortælle om ændringer i sin nyeste model.

Det er væsentligt at forstå, at GPT er en forudtrænet model, der bygger på en eksisterende datamængde og ikke fortsætter med at udvikle sig eller lære, efter den er blevet implementeret. Dette betyder, at de svar, vi får fra GPT, er baseret på den viden, den har fået gennem sin forudgående træning, og ikke på nogen form for kontinuerlig tilpasning eller indlæring.

Ser vi fremad og tænker på de næste generationer af kunstig intelligens, er det interessant at overveje, hvordan disse modeller potentielt kan bruge adfærdsdata til yderligere træning og forbedring. I denne artikel vil jeg dykke ned i, hvordan fremtidige modeller muligvis kan indsamle og udnytte brugernes adfærdsdata for at forbedre deres præstationer og blive endnu mere menneskelige i deres kommunikation.

💡
Dette er artikel nr. 4, der omhandler etiske problemstillinger ved brugen af den kunstige intelligens i undervisningen.

Læs også artiklerne:
- Fokus på privatliv
- Fokus på lukkede vidensdatabaser
- Overgang til automatiseringsetik

Overvågningskapitalismens hjælpende hånd: chatbotten

Den store udfordring, som sprogmodellerne kæmper med, er troværdighed i det, der skrives, og samtidig skal de også være så menneskelige, som det overhovedet er muligt. For at opnå både viden og troværdigt output er sprogmodellerne nødt til at pakke den rå data ind i en kommunikationsform, som appellerer til mennesker. I øjeblikket ser vi indpakningen som chatfunktionen i ChatGPT, men om kort tid vil Siri, Alexa og Cortana sikkert blive beriget med kunstig intelligens. Dermed vil vi kunne føre en samtale med sprogmodellerne, lige så naturligt som når vi snakker med en person. Men hvordan kan man lave en chatbot, der virker menneskelig? Svaret er ret simpelt: indsamling af brugernes adfærdsdata og træning af den kunstige intelligens ved hjælp af disse data.

Indsamling af adfærdsdata som betaling

Shoshana Zuboff forklarer i sin bog, Overvågningskapitalismens tidsalder, at etikken i den digitale tidsalder kan sammenlignes med behaviorist Burrhus Frederic Skinners såkaldte Skinnerboks. Skinnerboksen er et redskab til at undersøge adfærd hos dyr over tid, hvor dyret er isoleret fra omgivelserne. I boksen påvirkes dyret af positive og negative stimuli, som fx elektriske stød, mad, varme, lyde, lugte osv. Når en adfærd ledsages af en belønning, stiger sandsynligheden for, at den vil forekomme igen i fremtiden. Hvis adfærd til gengæld ledsages af en straf, vil det være mindre sandsynligt, at denne adfærd vil forekomme i fremtiden. Ved hjælp af forsøgene med Skinners boks mente psykologerne, at man kunne blive klogere på, hvordan dyret ville reagere på påvirkninger i den virkelige verden.

Vi kan sammenligne Skinners boks med chatrobotterne og den træning, der i øjeblikket foregår af mennesker uden nogen form for gennemsigtighed og uden nogen form for regulering.

Når vi skriver sammen med den kunstige intelligens i et chatvindue, så afslører vi vores adfærd til virksomhederne bag, præcis som forsøgsdyret gør det til forskeren i Skinnerboksen. Får vi en tekst, der giver mening, giver vi den måske et like. Er vi ikke tilfredse med en tekst eller et svar, beder vi den kunstige intelligens om at præcisere sit svar. Hver interaktion med chatbotten spejler menneskers kommunikation og skaber præcedens for chatbottens fremtidige adfærd.

Forskerne kalder denne metode for Reinforcement Learning with Human Feedback (RLHF), og gennem den trænes modellerne til at komme med svar, som modtageren finder tilfredsstillende. I denne træning modtager modellen belønninger for svar, på samme måde som man træner en hund med godbidder. Hvis modellen enten modtager en ulovlig forespørgsel eller kommer med et ulovligt svar, bliver disse markeret ved hjælp af menneskelig feedback. Dermed bliver modellen trænet til at filtrere disse og “lærer” både det gode svar, det dårlige svar, men også det svar, som overtræder virksomhedens retningslinjer.

Den kunstige intelligens bliver en skygge af menneskelig forståelse

Imellem mennesker kan der desuden være en del indforstået kommunikation i ikke at sige noget. Et kort nej kan fx betyde ja, eller måske, og kommentaren “Din store idiot” kan være positiv. Men når vi har set, hvad den kunstige intelligens har skrevet af tekster, behøver vi ikke ret meget fantasi til at forestille os, at den bliver endnu bedre til at svare/tale som et menneske. På et tidspunkt vil vi ikke kunne kende forskel, fordi den kunstige intelligens opfører sig som et menneske, og så skal vi først være bekymrede. Når vi fx sender en tekst til chatbotten, kommer der et svar, som nogle gange giver mening, men andre gange er lidt eller helt forkert. Her er vi allerede i gang med at give værdifulde informationer til den kunstige intelligens, samtidig med at vi træner nye måder at kommunikere med kunstig intelligens.

Vi skal dog altid tænke over, at mennesker har en fysisk oplevelse af den verden, vi begår os i, og at den oplevede kontekst har mange flere berøringspunkter end den kunstige intelligens. Mennesker processerer verden gennem alle dets sanser i en sådan grad, at den kunstige intelligens ikke kan følge med. Og den nuværende kunstig intelligens har intet begreb om den fysiske verden. Den handler på matematiske modeller og statistik for næste ord, tegn eller sætning (tokens) og kommer med et gæt på, hvad vi gerne vil høre.

Nu er jeg faktisk der, hvor jeg gerne vil hen med ovenstående tekst, for mens vi skriver eller taler til den kunstige intelligens i undervisningen, opsamles vores måde at kommunikere til og med den. Den menneskelige adfærd opsamles, bearbejdes og bruges efterfølgende til at modellerne kan være mere menneskelige. Nu er det ikke blot datapunkter fra de indsamlede databaser, som er vigtige, men også selve vores kommunikationsformer og menneskelige svarmønstre, der kortlægges og replikeres.

Mennesker handler ikke altid rationelt, som når vi fx gang på gang forsøger at få chatbotten til at svare et eller andet, som vi godt ved ikke er muligt ud fra retningslinjerne. Men vi gør det alligevel og hvorfor? Det er, fordi vi er nysgerrige, grænsesøgende og bygget til at lave fejl.

Lader vi modellen opsamle vores elevers kommunikation?

Hvis vi prøver at overføre ovenstående til vores undervisning, begynder vi faktisk at forstærke træningen af modellerne. Eleverne har et andet sprog end voksne, fx bruger de ofte ikke punktum i slutningen af tekstbeskeder, indsætter emojis eller erstatter ord med meget indforstået slang. De overholder højst sandsynligt ikke reglerne for retskrivning, og på den måde er de ved at udvikle og påvirke vores skriftsprog. Denne påvirkning har altid fundet sted, og det er en naturlig udvikling i vores sprog, men sprogmodellerne har svært ved at opsamle disse ændringer, fordi den er trænet til en anden type tekster. Ovenstående input er derfor guld værd for sprogmodellerne, fordi de kan have en snabel direkte nede i den aktuelle sprogudvikling. Det er ikke kun tekster fra Wikipedia eller Reddit, men liveforespørgsler, der kan give modellen flere menneskelige egenskaber og efterligne en hel generations kommunikation. Bl.a. når vi beder modellen om at ændre målgruppe i sit svar, vil den kunne forstå, hvordan den skal skrive til en elev på 14 år, samtidig med at teksten er pakket ind i ungdomskulturens kommunikationssprog.

Men her opstår endnu en udfordring, for modellen vil dermed begynde at påvirke elevernes kommunikationsmønstre ud fra, hvad den tidligere har fået af input og kan dermed virke selvforstærkende i en retning, som vi måske ikke ønsker. Det kan være, at, den er med til at forstærke fordomme eller stereotyper og dermed påvirke alle dele af den måde, vi kommunikerer på. Vi skal hele tiden tænke over, at det er amerikanske techvirksomheder, der styrer hele denne udvikling med profit for øje. Og lige nu gælder det om at komme først med den bedste sprogmodel, men også at opsamle data/adfærdsdata til at kunne træne den næste.

Vi bliver derfor nødt til at have en åben diskussion om alle disse etiske problemstillinger, for ellers er det techvirksomhederne, der styrer toget uden nogen form for regulering i hastighed eller retning.

Spørgsmål til den etiske diskussion:

  • Er det etisk forsvarligt at bruge chatbots i undervisning, når de er udviklet og styret af store tech-virksomheder med profit for øje?
  • Hvordan sikrer vi, at vi ved, hvorvidt det er et menneske eller en kunstig intelligens, vi snakker med - og er det vigtigt at vide det?
  • Bør der være mere gennemsigtighed og regulering i træningen af den kunstige intelligens for at beskytte brugernes privatliv og sikkerhed?
  • Bør vi være bekymrede for, hvordan den kunstige intelligens påvirker elevers skriftsprog og kommunikationsmønstre?
  • Hvordan kan vi sikre, at kunstig intelligens ikke forstærker eksisterende fordomme og stereotyper i kommunikation og adfærd?
  • Er det etisk forsvarligt at bruge chatbotter i undervisning, når de kan påvirke og ændre en hel generations kommunikation?
  • Hvordan kan vi sikre, at den nye teknologi ikke underminerer elevernes evne til at tænke kritisk og udforske egne ideer og holdninger?

Kilder

What is reinforcement learning from human feedback (RLHF)? - TechTalks
Reinforcement learning from human feedback (RLHF) is the technique that has made ChatGPT very impressive. But there is more to RLHF that large language models (LLM).
ChatGPT will never be ‘intelligent’
The worship of AI betrays a lack of confidence in humanity.
The Analytics Science Behind ChatGPT: Human, Algorithm, or a Human-Algorithm Centaur?
Blog Series: PUBLIC IMPACT ANALYTICS SCIENCE (PIAS)
Post-ChatGPT, we must consider human purpose beyond work
We are entering an era of “abnormal” that requires different thinking both at an individual and a societal level.
Få Overvågningskapitalismens tidsalder af Shoshana Zuboff som Indbundet bog på dansk - 9788793772106
Få Overvågningskapitalismens tidsalder af Shoshana Zuboff som bog på dansk - 9788793772106 - Bøger rummer alle sider af livet. Læs Lyt Lev blandt millioner af bøger på Saxo.com.
Technology behind ChatGPT shows signs of human-like intelligence: study
Is GPT-3, the technology behind ChatGPT, actually intelligent? Or is it just an algorithm passively feeding on a lot of text and predicting what word comes next? Two German researchers ran a series of experiments to find out.
Lessons learned on language model safety and misuse
We describe our latest thinking in the hope of helping other AI developers address safety and misuse of deployed models.
Design og kommunikation?
Kommunikationens mulighed og grænse. Traditionelt handler kommunikation om en afsender, der skal formidle et sagsindhold til en intenderet modtager. På den måde står kommunikation som overgribende strategi, metode og teori helt centralt i et nutidigt samfund, hvor…
Introducing ChatGPT
We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.
It-direktør kan ikke få armene ned: »Jeg er lige så begejstret, som jeg var, da Steve Jobs i sin tid præsenterede iPhone«
Det sker helt automatisk, at vi får menneskelige følelser for vores nye venner de talende robotter, siger Jon Lund, erfaren it-direktør. Han har ikke været så begejstret, siden iPhonen blev lanceret.
Language Models are Few-Shot Learners
Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of t…
‘Our minds can be hijacked’: the tech insiders who fear a smartphone dystopia
The Google, Apple and Facebook workers who helped make technology so addictive are disconnecting themselves from the internet. Paul Lewis reports on the Silicon Valley refuseniks who worry the race for human attention has created a world of perpetual distraction that could ultimately end in disaster
The Skinner Box: Why Instagram Will Never Remove Likes
In the 1930’s American psychologist B.F. Skinner developed an experiment.
From Rats to Consumers: Skinner’s Experiment and Business Success
B.F. Skinner was a prominent psychologist who believed that human behaviour could be shaped through a process known as operant…
Professor: ChatGBT er blot endnu mere overvågning
Professor i økonomi og socialpsykologi fra Harvard Shoshana Zuboff opfordrer os til at kæmpe imod chatbots. Hun mener, at de i sidste ende er en trussel mod demokratiet.
6 Big Problems With OpenAI’s ChatGPT
OpenAI’s new chatbot has garnered attention for its impressive answers, but how much of it is believable? Let’s explore the darker side of ChatGPT.
People are ‘Jailbreaking’ ChatGPT to Make It Endorse Racism, Conspiracies
Convincing an AI that it’s playing a role and “scaring” it into violating safety filters is one way to get a chatbot to break bad.
Digital Etik
The inside story of how ChatGPT was built from the people who made it
Exclusive conversations that take us behind the scenes of a cultural phenomenon.
Sætter du punktum sidst i dine beskeder? Derfor tror folk, du er sur
Især hos yngre danskere har punktummet fået en ny betydning de senere år.
Operant conditioning chamber - Wikipedia
Evig forargelse over unges sprog
Unge sjusker forfærdeligt med sproget og er under påvirkning fra vulgær populærkultur. Sådan lyder ældre generationers evige klager over unges sprog. “Sure gamle mænd bør holde sig langt væk fra sproget,” siger en sprogforsker. Ligeglade voksne skader børnene, mener psykolog
Den unge generation skaber sproget - a1kommunikation
Tekstforfatning, korrekturlæsning og tekstredigering
Artificial Intelligence Hellnado
I was drafting an email to customer service and I was stuck. I opened ChatGPT and wrote: write an email to a customer service agent of <redacted>. Explain that you have enjoyed the product for several years. You are currently having trouble adding a <redacted> credit card account to your account.…