OpenAI har netop annonceret deres nye model, GPT-4o (o står for omni), som kan generere tekst, lyd og billeder i realtid.

En stor nyhed er, at modellen bliver tilgængelig for alle – også gratisbrugere (dog med begrænsninger i antallet af prompts), hvilket kan være med til at minimere den ulighed, der kan opstå, når nogle elever køber adgang til en bedre model og andre nøjes med den gratis. Ved samme lejlighed gøres Custom-GPTs også tilgængelige for gratisbrugere, ligesom den gratis udgave får internetadgang. I løbet af nogle uger bliver en desktop-app til Mac også frigivet. Windows-appen bliver først lanceret i løbet af efteråret.

OpenAI begynder med at give plus-abonnenter adgang til den nye model, men i løbet af nogle uger får alle adgang.

Den nye model er meget hurtigere end GPT-3.5 og GPT-4, hvilket vi har forsøgt at illustrere herunder ved at lave en lille test (vi har adgang til modellen, fordi vi betaler for GPT-4).

Den nye model genererer teksten et minut hurtigere end den tidligere model.

Indbyggede begrænsninger i modellen

I GPT-4o har OpenAI indbygget sikkerhed i modellen ved at filtrere træningsdata og finjustere modellens adfærd efter træning. Over 70 eksperter har gennemgået modellen for at vurdere områder som socialpsykologi, bias og misinformation og identificere risici ved de nye muligheder i modellen.

Især lydmodaliteter præsenterer nye risici, hvorfor OpenAI starter med at frigive tekst- og billedeinput.

GPT-4o og undervisning

Vi har udvalgt tre videoer, der meget godt viser, hvordan GPT-4o kan bruges i undervisningen.

Herunder tester Sal og Imran Khan fra Khan Academy GPT-4o og modellens muligheder for at fungere som matematik-tutor. I undervisningen kan der være mange muligheder for, at eleverne ikke blot får et svar, men derimod kan interagere med modellen for at få støtte til eksempelvis matematik. Et andet aspekt er, at hjælpen foregår gennem naturligt sprog, som ser ud til at kunne hjælpe eleverne med den mundtlige fremstilling.

I denne video fremviser OpenAI mulighederne inden for live oversættelse af en samtale mellem to personer.

Samtidig er det også muligt at få ChatGPT til at fortælle, hvad objekter hedder på forskellige sprog, blot ved at filme objektet og bede om en oversættelse.

Se hele præsentationen fra OpenAI her: