Matomo

spring til indhold

Udbredte fejl i AI-assistenters formidling af nyheder

En ny international undersøgelse viser, at 45 % af AI-assistenters nyhedssvar indeholder væsentlige fejl.

· 2 minut læses

Indholdsfortegnelse

Et omfattende internationalt studie, som er koordineret af European Broadcasting Union (EBU) og ledet af BBC, viser, at der er markante fejl i måden, hvorpå AI-assistenter formidler nyhedsindhold.

De har undersøgt 22 public service-medier fra 18 lande og evalueret over 3.000 svar fra ChatGPT, Copilot, Gemini og Perplexity. Resultatet viser, at 45 procent af alle svar indeholdt mindst ét væsentligt problem. Blandt de mest udbredte fejl var manglende eller vildledende kildehenvisninger (31 %), unøjagtigheder (20 %) samt en fejlagtig adskillelse af fakta og holdninger.

Undersøgelsen suppleres af et såkaldt “toolkit”, som skal hjælpe både udviklere og brugere med at identificere og forbedre svar fra AI-assistenter.

Samtidig opfordrer EBU EU og nationale myndigheder til at sikre, at gældende lovgivning om informationskvalitet og mediemangfoldighed håndhæves. Der arbejdes nu på at fortsætte monitoreringen fremadrettet, da udviklingen inden for AI går meget hurtigt.

Hent de to rapporter her:

Stort BBC-studie: AI-nyheder er smækfyldt med fejl | Ingeniøren
Hvis ikke man kan få nok af fake news, så er det bare om at bruge AI.
Largest study of its kind shows AI assistants misrepresent news content 45% of the time – regardless of language or territory
An intensive international study was coordinated by the European Broadcasting Union (EBU) and led by the BBC