Denne uge fokuserer vi på Professor Bent Meier Sørensens fremragende kronik, der i høj grad stiller spørgsmålstegn ved, om kunstig intelligens i uddannelse virkelig er en god idé. Bent berører kort udfordringerne omkring GDPR, hvilket også er i fokus for Max Schrems, der for nylig har anlagt sag mod OpenAI for at få fjernet personlige data fra ChatGPT. Som svar har OpenAI oprettet en side, hvor man kan anmode om at få fjernet data, men de skriver selv, at det praktisk talt er umuligt.
OECD har netop opdateret deres AI-principper, der fremmer brugen af AI, som er innovativt og pålideligt og respekterer menneskerettigheder og demokratiske værdier.
Tidligere i år blev der afholdt en folkehøring med fokus på, hvordan kunstig intelligens påvirker vores samfund, og afrapporteringen er netop blevet udgivet.
Professor advarer: Kunstig intelligens truer originalitet og kreativ tænkning
Professor Bent Meier Sørensen fra CBS har skrevet en artikel om kunstig intelligens i uddannelsessystemet og vores samfund. Han argumenterer for, at den massive hype omkring kunstig intelligens, især inden for chatbots, er overdreven og utroværdig.
Han påpeger, at de studerendes anvendelse af chatbots ikke nødvendigvis fører til en dybere forståelse eller original tænkning, og samtidig advarer han om, at de stærke studerende kan blive tilbøjelige til at levere ringere arbejde.
I kronikken opfordrer Bent Meier Sørensen til handling for at tøjle den ukritiske udbredelse af kunstig intelligens for at bevare menneskelig originalitet, kritisk tænkning og kulturel diversitet.
Læs hele Bent Meier Sørensens kronik i Politiken herunder:
ChatGPT anklaget for gentagne brud på GDPR
Max Schrems og hans organisation, Noyb, har netop indgivet en sag mod ChatGPT for gentagne overtrædelser af GDPR. De hævder, at ChatGPT gentagne gange giver falske oplysninger, når sprogmodellen bliver spurgt om detaljer om personer, og at den ikke retter dem. Dette er i strid med GDPR's krav om nøjagtighed og tilgængelighed af oplysninger om enkeltpersoner. OpenAI har indrømmet, at de ikke kan korrigere forkerte oplysninger, og de nægter at følge GDPR's krav om rettelse og sletning af fejlagtige data.
Noyb mener, at det er problematisk og potentielt skadeligt, når systemer som ChatGPT genererer falske oplysninger om personer. De har indgivet sagen til det østrigske datatilsyn.
Fjern personlige oplysninger fra ChatGPT
OpenAI har tilføjet en formular på deres hjemmeside, som giver enkeltpersoner mulighed for at anmode om at få fjernet deres personlige oplysninger fra ChatGPT. Selvom man indsender en anmodning, er det ikke sikkert, at oplysningerne vil blive fjernet fra ChatGPT's output.
OpenAI will verify and consider your request, balancing privacy and data protection rights with public interests like access to information, in accordance with applicable law. Submitting a request does not guarantee that information about you will be removed from ChatGPT outputs, and incomplete forms may not be processed.
OpenAI Personal Data Removal Request
OpenAI skriver selv, at der er visse begrænsninger i at fjerne personlige data fra modellerne, eftersom det kræver meget arbejde at justere en model, når den først er trænet. Samtidig vil modellen stadig indeholde personlige data i dens grundmodel, og selvom man blokerer for bestemte forespørgsler, kan man ikke være sikker på, at disse data ikke dukker op i andre forespørgsler.
På OpenAI's hjemmeside er der oprettet en formular, hvor man kan bede om at få fjernet personlige oplysninger.
OECD's AI-principper er opdateret
OECD's anbefalinger om kunstig intelligens, som blev vedtaget d. 22. maj 2019, var den første mellemstatslige standard for AI, og er netop blevet opdateret for at afspejle den teknologiske udvikling.
Hovedpunkterne i ændringerne er listet herunder:
- Sikre, at der er stærke sikkerhedsmekanismer til at håndtere eller deaktivere AI-systemer, som kan opføre sig uønsket eller skadeligt.
- Understrege, hvor vigtigt det er at bekæmpe falske nyheder og beskytte ægte information, særligt i forbindelse med AI, der kan generere indhold.
- Sørge for, at virksomheder opfører sig ansvarligt gennem hele AI-systemets levetid, inklusive samarbejde med både leverandører og brugere af AI.
- Gøre det klart, hvilke informationer om AI-systemer der er nødvendige for at sikre gennemsigtighed og ansvarlig håndtering.
- Klart påpege vigtigheden af miljømæssig bæredygtighed, hvilket er blevet stadig vigtigere.
- Fremhæve, at det er nødvendigt, at lande samarbejder for at sikre sammenhængende regler og politikker for AI, idet antallet af initiativer på området stiger.
Inden for undervisningssektoren anbefales det at investere i forskning og udvikling af kunstig intelligens for at fremme innovation og forståelse. Samtidig opfordres der til at forberede arbejdsmarkedet på de nye muligheder gennem uddannelse og omskoling.
Læs de reviderede AI-principper på OECD's hjemmeside.
Folkehøring om kunstig intelligens
Den 3.-4. februar 2024 afholdt TrygFonden, Digitaliserings- og Ligestillingsministeriet, analyseinstituttet Verian, professor Kasper Møller Hansen fra Københavns Universitet og Digital Democracy Centre ved Syddansk Universitet en folkehøring om kunstig intelligens. Hovedmålet var at fremme en demokratisk samtale om, hvordan kunstig intelligens påvirker vores samfund. Folkehøringen samlede 356 deltagere, der diskuterede emner som arbejdsmarked, velfærd og digital sikkerhed med det formål at informere fremtidige politikker om kunstig intelligens i Danmark.
Afrapporteringen fra folkehøringen er netop blevet udgivet og understreger vigtigheden af uddannelse og oplysning for at styrke danskernes tillid til kunstig intelligens. Det fremhæves, at alle borgere skal have de nødvendige kompetencer til at navigere i en stadig mere digitaliseret verden, og det understreges, hvor vigtigt det er, at alle bliver digitalt dannet for at forhindre, at teknologien fører til ulighed i befolkningen.