Matomo

Etiske aspekter ved chatrobotter i undervisning - sindets uhyggelige dal

· 15 min read
Etiske aspekter ved chatrobotter i undervisning - sindets uhyggelige dal

Måske har du selv prøvet at skrive tak for et svar fra ChatGPT? Eller du har måske modtaget en undskyldning, når du har pointeret, at den har lavet en fejl? Det kan også være, at du har siddet i en dyb samtale og følt, at det var ligesom at skrive sammen med en, der kender dig og dine følelser? Det er der en ret god grund til. OpenAI, der står bag ChatGPT, trækker en række menneskelige træk ned over deres algoritme for at få den til at virke menneskelig. På denne måde gør de teknologien mere tilgængelig for almindelige mennesker, og man behøver ikke at forstå, hvordan man bedst opbygger avancererede forespørgsler. Det betyder dog også, at vi begynder at nærme os en virkelighed, hvor vi ikke nødvendigvis kan kende forskel på, om det er en computer eller et menneske, vi skriver sammen med.

I denne artikel vil jeg undersøge, hvad det betyder, at kunstig intelligens får tilskrevet disse menneskeligeligende karakteristika, også kaldet antropomorfisme, og hvad det betyder for, en undervisningssituation. Antropomorfisme stammer fra oldgræsk og betyder menneske og form og betyder, at man besjæler og dermed giver entiteter menneskelige træk. OpenAI bruger f.eks. forskellige teknikker til at gøre det nemmere for mennesker at forstå og interagere med ChatGPT.

Jeg kommer ind på nogle af de teknikker, sprogmodellerne bruger for at virke menneskelige, men også hvorfor det kan være et problem, når vi inkluderer teknologien i undervisningen. Det kan virke harmløst, men jeg vil i artiklen udfolde en række problemstillinger inden for sammenhængen mellem antropomorfisme og sprogmodeller. Det vil jeg gøre ud fra et ståsted som teknologiinteresseret gymnasielærer, med fokus på pædagogik og didaktik - og ikke mindst med tanken om at mit job er ved at forsvinde til en sprogmodel, der tror, den har empati og følelser.

💡
I mine undersøgelser til denne artikel fandtes der forbavsende lidt litteratur om antropomorfisme og digitale teknologier. Det meste omhandler robotter, og hvordan det fysiske udsende påvirker mennesker. Man kan i bunden se alle mine kilder, men hovedparten er hjemmesider. Kun ganske få er videnskabelige artikler.

Den uhyggelige dal

Når vi indfører digitale teknologier, der udgiver sig for at indeholde avancerede kognitive evner, og det så ikke er tilfældet, kan det få brugeren til at føle frustration og skuffelse. Den japanske robotiker Masahiro Mori udviklede i 1970 en teori, der omhandler fysiske robotter, som efterligner mennesker.

According to the theory, the more a robot resembles a human being, the more its imperfections become apparent and evoke a feeling of strangeness, discomfort, or cognitive dissonance. (Dr. Martha Boeckenfeld)

Hvis en robot prøver at efterligne menneskelig opførsel, bliver dens mangler og fejl ofte mere tydelige for os. Der kommer et punkt, hvor vi ikke længere betragter robotten som en maskine, der prøver at virke menneskelig, men snarere som et "menneske", der opfører sig mærkeligt. Masahiro Mori beskriver dette fænomen som "the uncanny valley" - en uhyggelig dal eller fremmedgørelse, hvor vores empati falder i takt med, at vores forståelse for maskinen mindskes. Ifølge teorien vil robotterne til sidst komme ud af denne dal og blive accepteret af mennesker.

Grafik: Masahiro Mori - Egen oversættelse


Den uhyggelige dal har fokus på robotter og deres fysiske og æstetiske fremtoning, men der er en anden dal, som kan være endnu mere uhyggelig og endnu mere dyb. I denne dal, betegnet som "the uncanny valley of the mind", begynder vi nemlig at forholde os til, hvad der sker, når kunstig intelligens efterligner den menneskelige tankegang. Her opstår en ny udfordring, når vi tilskriver følelser og social erkendelse til noget, der er ikke-menneskeligt. Dalen synes at blive endnu dybere, når personer bliver præsenteret for en kunstig intelligens, der kan træffe egne beslutninger og reaktioner og dermed udfordre vores egen unikke menneskelige identitet.

Kunstig intelligens er grundlæggende blot en simulering af sprog ud fra statistik og store datamængder og har derfor ingen forståelse eller oplevelse af følelser. Derfor vil personer, der interagerer med sådanne systemer måske også opleve en fremmedgørelse, når personen indser, at der er en uoverensstemmelse mellem vores egen og systemets måde at bearbejde forståelse og følelser.

En stor udfordring med sprogmodellerne er, at de kan skrive på samme måde som et menneske og være meget behjælpelige i deres svar. Men der er også den mulighed, at det, de skriver, er umenneskeligt eller ligefrem ukorrekt. I alle tilfælde har vi svært ved at få en forklaring på det svar, vi har fået, og derfor kan det ende med, at vi har svært ved at stole på teknologien. Meget af det bunder dog i, hvordan man prompter kunstig intelligens, for svaret man får, afhænger meget af det, man skriver.

Indkodning af menneskelige træk i ChatGPT

De første udgaver af GPT var svære for den almindelige bruger at tilgå, og derfor blev det heller ikke den helt store succes. Udfordringen var nemlig, at man enten skulle bruge en terminal eller OpenAIs Playground, og det var svært og med mange indstillingsmuligheder. Men det blev ændret, da OpenAI lancerede ChatGPT, hvor man skrev sammen med kunstig intelligens ved hjælp af en meget simpel brugerflade og på samme måde, som man skriver sms'er eller søger på Google. Samtalerne var dermed gjort menneskelige, og alle kunne forstå, hvordan det virkede.

Det er vigtigt at gøre klart, at sprogmodellerne ikke er designet til at svare på spørgsmål fra brugeren eller komme med et korrekt svar, hvis man stiller et spørgsmål. De er designet til at forudsige, hvilket ord der vil give mest mening i næste del af en sætning - ord efter ord. Men fordi sprogmodellerne er opbygget, som de er, tror brugeren, at sprogmodellen er udstyret med avancerede kognitive evner, og nogle gange også at det er som at skrive sammen med et andet menneske.

Følelsen af at man skriver sammen med noget, der er intelligent, forstærkes, når svarene fra ChatGPT kommer langsomt, som om der er en person i den anden ende, der skriver teksten. Brugeren skal vente på, at ChatGPT får skrevet færdig - medmindre man altså stopper den. Det er helt med vilje, at OpenAI har indlagt forsinkelse i de svar, ChatGPT kommer med, og det er der flere grunde til. Når resultatet ikke kommer med det samme, sikrer OpenAI, at deres bagvedliggende system kan følge med, og at man ikke sender for mange beskeder, for hurtigt. Man ender med at læse indholdet i samme tempo, som det bliver fremvist på skærmen, hvilket hjælper brugeren. For hvis al teksten stod på en gang, ville man måske ret hurtigt skimme teksten og dermed ikke forstå indholdet.

I sprogmodellerne er der også indbygget forståelse for det, brugeren indtaster, hvilket igen påvirker, hvordan vi opfatter modellerne. I nogle tilfælde svarer den endda igen, som i det nedenstående eksempel hvor jeg skriver sammen med Bing AI (en udgave af GPT-4 modellen).

Egen samtale med Bing AI.

Ved at jeg insisterer på, at den skal kaldes Sydney (som var Microsofts kaldenavn under produktionen), bliver den mere og mere sur og fræk, for til sidst at lukke ned for samtalen.

I dette lille eksempel kan vi trække paralleller til, hvordan vi mennesker ville reagere, og man kunne få den tanke, at svaret var afstedkommet af et intelligent system. Sandheden er dog, at sprogmodellen er blevet belønnet gennem en ”reward model”, og her har udviklerne blokeret for, at man må kalde den Sydney. Det interessante her er dog, at sprogmodellen bruger tidligere svar, til at komme med nye svar – ligesom et menneske ville gøre det i en samtale.

Samtidig gør brugen af smileys, og måden Bing AI svarer på, at den reagerer på en måde, som er atypisk for et computersystem. Normalt ville vi forvente, at der var kommet en fejl, eller at der var kommet et svar, som blev gentaget.

Din nye bedste ven i skolen

I skolerne skal eleverne lære om og med kunstig intelligens, men her er det også vigtigt, at vi lærer dem om etisk brug af disse værktøjer. Overdreven brug af antropomorfisme i digitale teknologier kan være vildledende for eleverne. Samtidig kan det få eleverne til at tro, at de interagerer med en AI, der besidder bevidsthed, følelser og empati - noget som normalt er forbeholdt læreren.

Vi har set, hvordan My AI blev udrullet til alle, der havde snapchat. Dermed fik unge adgang til en kunstig intelligens, som en digital ven de kunne være fortrolig med. Denne udvikling er skræmmende, eftersom vi har med børn at gøre, og de derfor ikke har samme vidensniveau og forståelse for digitale teknologier.

Vi har at gøre med en teknologi, der har så meget fart på, at vi har svært ved at følge med. Der vil være jobs, som bliver massivt påvirket, og mange jobs forsvinder, men andre vil opstå på grund af nye muligheder i forbindelse med teknologien. Det kommer i høj grad til at påvirke, hvordan vi ser fremtidens uddannelser, for det bliver sværere at se jobmulighederne i den anden ende. Hvis vi bliver for afhængige af kunstig intelligens i vores uddannelsessystem, kan det føre til, at lærerens rolle bliver nedtonet, eller at mange jobs helt forsvinder.

I denne hastige udvikling er det ikke svært at forestille sig, hvordan mennesker kan udvikle forkerte mentale forestillinger om, at chatrobotterne er levende væsner. Udfordringen er derfor, at de menneskelige træk i kunstig intelligens kan føre til urealistiske forventninger og misforståelser.

Risici og konsekvenser ved antropomorfisering af kunstig intelligens

Når sprogmodeller simulerer at have følelser, bevidsthed og empati, kan det blive et skråplan, hvis disse anvendes ukritisk som en del af undervisningen eller som en del af elevernes værktøjskasse. Klasserummet er i forvejen påvirket af tech-virksomhedernes nyeste teknologier, der uhindret har overtaget flere og flere roller i undervisningen. Eleverne bruger i stor stil sprogmodellerne som kognitiv sparringspartner, når opgaverne bliver for svære, eller når de skal have hjælp til at forstå det faglige indhold. Dermed flyttes noget af lærerens arbejde over til sprogmodellerne, og det vil være med til at ændre på magtforholdet i undervisningen.

En stor risiko er, at læreren mister forbindelsen til elevens faglighed, eftersom vejledning og støtte i dagligdagen bearbejdes af en kunstig intelligens. Og hvis de menneskelige træk i sprogmodellerne forstærkes yderligere, kan det betyde, at eleverne efterlades med et system, der ender med at styre deres uddannelse, men uden eller med meget lidt indvirkning fra læreren. Det kan betyde, at vi får elever, der ender med at stole mere på sprogmodellerne end klassekammeraterne eller læreren. I sidste ende betyder kommercialiseringen tillige, at dem, der har råd, også har adgang til de bedste sprogmodeller.

Elever skal (ud)dannes til ikke kun at lære, hvordan de anvender kunstig intelligens på en etisk og ansvarlig måde. De skal også lære, hvordan kunstig intelligens virker, og hvordan teknologien bliver udviklet. Det er vigtigt, at de forstår, at der ingen magi er i teknologien, og at sprogmodellerne ikke tænker som vi mennesker.

I undervisningen bør vi derfor undgå at tillægge kunstig intelligens menneskelige egenskaber, og vi skal starte med, hvordan vi omtaler systemerne. F.eks. skal vi undgå sætninger som at ”Kunstig intelligens lærer os at…”, men i stedet skrive at "Systemet er designet til at...". Samtidig er det vigtigt at gøre det klart, at kunstig intelligens ikke lytter og forstår, men modtager et input, som bliver bearbejdet ud fra et datasæt, der ender med at producere et output.

For at afhjælpe disse udfordringer er her en liste over forskellige muligheder, vi kan gøre brug af i undervisningen, når vi arbejder med sprogmodellerne:

  • Kunstig intelligens har en række begrænsninger og det er vigtigt, at vi lærer, hvad sprogmodellerne kan, og hvad de ikke kan, og at det er en naturlig del af vores uddannelser på alle niveauer i skolesystemet.
  • Det skal gøres klart, at kunstig intelligens ikke er mennesker, og at maskinen ikke har nogen former for tænkning eller følelser involveret i dens svar. Den er udelukkende baseret på input og de datasæt og algoritmer, den består af.
  • I undervisningen er det vigtigt, at vi undgår at antropomorfisere teknologien, og det gør vi bedst ved at være klare i den måde, hvorpå vi omtaler teknologien. Det kan f.eks. gøres ved, at vi undgår at sige: "Kunstig intelligens tænker", for det er bedre at sige: "Kunstig intelligens er blevet programmeret til at analysere data og ud fra analyser give forskellige anbefalinger”.
  • Det er også vigtigt, at vi ikke bruger sprog, som antyder, at kunstig intelligens har menneskelige træk eller følelser. F.eks. kan kunstig intelligens ikke være glad, trist eller undskylde. Det er bedre at beskrive, hvordan sprogmodellen er kommet frem til et output.
  • Tydeliggør, at kunstig intelligens ikke har følelser eller bevidsthed, og at der er forskel på mennesker og kunstig intelligens. Kunstig intelligens er blot et værktøj, der er skabt til at hjælpe med beslutningstagning og problemløsning.
  • Vi skal fremme elevernes kritiske tænkning og skepsis, og derfor bør eleverne lære at sætte spørgsmålstegn ved muligheder og begrænsninger ved kunstig intelligens.

Udviklere af læremidler til uddannelsesbrug har også et ansvar for at undgå antropomorfe funktioner. Det kan fx være ved, at man gør det helt klart for eleverne, hvornår der bliver brugt kunstig intelligens - både i forbindelse med evaluering, udvikling af undervisningsforløb, men også når mange af lærerens funktioner erstattes af kunstig intelligens.

Der er dog også fordele ved at inddrage sprogmodellerne som en del af undervisningen, og brugt på den rigtige måde kan det give øget læring hos eleverne. Her må fremtiden vise, hvordan vi får inddraget kunstig intelligens på en etisk og forsvarlig måde, og på en måde hvor lærerne og eleverne kan følge med.

De største problemer opstår, når vi ikke ved, om det er et menneske eller en maskine, vi skriver sammen med, når vi kan konstatere, at der er et eller andet underligt i de svar, vi modtager. Derfor er det vigtigt at deklarere, hvorvidt kunstig intelligens bliver brugt til at generere et svar.

Vi bliver derfor nødt til at sikre ovenstående, når vi arbejder med kunstig intelligens i uddannelsesregi, og det er afgørende, at vi opretholder menneskelige relationer og forståelse i skolen. Sikkert er det dog, at vi kommer til at se nye systemer, der kommer til at ligne mennesker mere og mere, og på et eller andet tidspunkt vil vi ikke kunne kende forskel. I den dybeste dal vil vi få elever, der bliver testpersoner for menneskelignende interaktion med systemerne, og her skal vi være klar til at kunne samle elever op, der føler ubehag. Det er vigtigt, at vi nærmer os denne teknologi med et kritisk øje og husker på, at kunstig intelligens, selvom den kan efterligne menneskelig adfærd, ikke er menneskelig.

Kilder

OpenAI’s ChatGPT as the ultimate form of abstraction
Artificial intelligence just took a huge leap forward, and is the ultimate form of general knowledge abstraction
ChatGPT interview: Do You Mind If I Call You Chat? | The Artist Engineer Podcast
Our guest on this episode is “ChatGPT”, a cutting-edge natural language Artificial Intelligence designed by OpenAI. ChatGPT’s remarkable language abilities and versatility in performing various tasks have garnered high acclaim. During this interview, we put ChatGPT’s conversational AI to the test to…
Antropomorfisme - Wikipedia, den frie encyklopædi
Why Do Humans Anthropomorphize AI?
You might intellectually know a chatbot is a computer, but it’s hard not to imagine it has feelings.
AI Chatbots Are Getting Better. But an Interview With ChatGPT Reveals Their Limits
TIME interviewed OpenAI’s chatbot, ChatGPT, about how it works and the risks of AI
And man created AI in his image ... | Arthur D. Little
Should we care that AIs will be increasingly anthropomorphic? ChatGPT arrived through lightning-speed adoption. Indeed, OpenAI confirmed that ChatGPT users surpassed 1 million just five days after its launch, making it the fastest-adopted app in history. And although not yet confirmed by OpenAI, we…
Reflections on AI in Education | BFIS
Explore the impact of AI in education: discover how GPT can help teachers, and dive into the future of AI-powered learning.
Addressing the Risks and Consequences of Anthropomorphizing AI
(All opinions express the views of the author but not his employer) Anthropomorphizing is the act of attributing human-like characteristics or emotions to non-human entities, such as animals or machines. With the rise of artificial intelligence and natural language processing technology, there has b
ChatGPT: The Next Firestorm in Education | AACSB
AI’s expanding capabilities might seem shocking, or even threatening. But remember, higher ed has faced new tech before—and emerged better than ever.
People Who Should Learn to use ChatGPT
You are probably one of them; #ChatGPT in 2023 is poised the way the World Wide Web was in 1993
How anthropomorphism hinders AI education - Raspberry Pi Foundation
Our approach to describing AI and machine learning in AI education resources for young people.
The AI emotions dreamed up by ChatGPT
AI chatbots are already imagining what feelings they’ll end up with. But if they did develop them, would we even notice?
The AI generation gap: Are Gen Z students more interested in adopting generative AI such as ChatGPT in teaching and learning than their Gen X and Millennial Generation teachers?
This study aimed to explore the experiences, perceptions, knowledge, concerns, and intentions of Gen Z students with Gen X and Gen Y teachers regarding the use of generative AI (GenAI) in higher education. A sample of students and teachers were recruited to investigate the above using a survey consi…
Derfor er robotter og klovne så uhyggelige
Robotter og computeranimationer, der ligner mennesker, er tit super uhyggelige. Teorien om ’den uhyggelige dal’ forklarer hvorfor.
GPT and Human Psychology
Analogies with Human Thinking and Reasoning.
Parental Acceptance of Children’s Storytelling Robots: A Projection of the Uncanny Valley of AI
Parent–child story time is an important ritual of contemporary parenting. Recently, robots with artificial intelligence (AI) have become common. Parental acceptance of children’s storytelling robots, however, has received scant attention. To address this, we conducted a qualitative study with 18 par…
ChatGPT & You: Language Generation’s Uncanny Valley
Taking a look how our most Advanced AI Language Model to-date can shape our perception of NLG technology

Eisikovits, N. (2023, 19. marts). Chatbots aren’t becoming sentient, yet we continue to anthropomorphize AI. Fast Company. https://www.fastcompany.com/90867578/chatbots-arent-becoming-sentient-yet-we-continue-to-anthropomorphize-ai

El-Netanany, O. (2023, 14. marts). Everything ChatGPT tells you is made up. Israeli Tech Radar. https://medium.com/israeli-tech-radar/everything-chatgpt-tells-you-is-made-up-3da356113dc9

Filipec, O. & Woithe, J. H. (2023). Understanding the Adoption, Perception, and Learning Impact of ChatGPT in Higher Education [Bachelorprojekt, Jönköping University]. . http://hj.diva-portal.org/smash/get/diva2:1762617/FULLTEXT01.pdf

Hjorth, L., Hjorth, N., Jakobsen, S., Schlebaum, P. & Thormod, J. (2017, 31. maj). Antropomorfisering af droner. Roskilde University. https://rucforsk.ruc.dk/ws/portalfiles/portal/59897809/pd_projekt_doner_master.pdf

Hutson, M. (2017, 13. marts). Beware emotional robots: Giving feelings to artificial beings could backfire, study suggests: Study could influence design of future artificial intelligence. Science. https://www.science.org/content/article/beware-emotional-robots-giving-feelings-artificial-beings-could-backfire-study-suggests

James, D.. (2023, 5. juni). AI and the problems of personification. Rationale Magazine. https://rationalemagazine.com/index.php/2023/06/05/ai-and-the-problems-of-personification/

Lin, Chaolan & Sabanovic, S. & Dombrowski, Lynn & Miller, Andrew & Brady, Erin & MacDorman, Karl. (2021). Parental Acceptance of Children's Storytelling Robots: A Projection of the Uncanny Valley of AI. Frontiers in Robotics and AI. 8. 10.3389/frobt.2021.579993.

Rosenberg, S. (2023, 13. februar). ChatGPT's edge: We want to believe. Axios. https://www.axios.com/2023/02/13/chatgpt-ai-eliza-believe-human

Stein, Jan-Philipp & Ohler, Peter. (2017). Venturing Into the Uncanny Valley of Mind—The Influence of Mind Attribution on the Acceptance of Human-Like Characters in a Virtual Reality Setting. Cognition. 160. 43-50. 10.1016/j.cognition.2016.12.010.