OpenClaw: Når AI-agenter handler på egen hånd
AI-agenter er ikke længere science fiction. Med OpenClaw har vi fået et kig ind i en fremtid, hvor AI ikke bare svarer på spørgsmål, men handler autonomt på vores vegne. I denne artikel gennemgår jeg teknologien og de spørgsmål, vi i uddannelsessektoren bør stille allerede nu.
Indholdsfortegnelse
I denne artikel ser jeg nærmere på de nyeste AI-agenter og forklarer, hvorfor jeg mener, vi bør være lidt forsigtige med at installere dem på sin egen computer. Når det er sagt, rummer udviklingen også nogle interessante perspektiver, som vi helt sikkert kommer til at arbejde med på uddannelsesinstitutioner i de kommende år.
Hovedpointen i artiklen er, at computeren, som vi kender den, er ved at blive forvandlet til AI-agenter, der kan løse opgaver for os. Selvom disse AI-agenter ikke er særligt hurtige, har de den fordel, at de kan løse opgaver i baggrunden, også mens vi sover.
I artiklen ser jeg på OpenClaw, men også kort på Moltbook, som er AI’er, der taler med andre AI’er i et Reddit-lignende forum, der fremstår levende, men ikke er det.
At AI-agenter igen er blevet interessante, udspringer af en samtale, jeg for nylig havde med lektor Niels Lauritzen på ATV-konferencen: Hvad gør AI ved vores uddannelser?. Han læser med her på Viden.ai og spurgte, hvor meget jeg havde fulgt med i de nye AI-agenter. Det blev anledningen til endnu en gang at dykke ned i et emne, jeg tidligere har skrevet om, men som nu har taget en ny og overraskende drejning.
I min artikel fra april 2025 beskrev jeg, hvordan AI-agenter kunne styre programmer på computeren, ligesom vi selv gør med mus og tastatur. Dengang var det stadig teknisk besværligt, og agenterne kørte i baggrunden, så det var svært at følge med. I mellemtiden har vi fået browsere med dybt integreret AI, som er ret nemme at bruge.
Med OpenClaw, tidligere kendt som ClawdBot, har vi krydset en tærskel, hvor AI-agenter er blevet tilgængelige for almindelige brugere. Det rejser en række nye spørgsmål.
OpenClaw: Hvad er det egentlig?
OpenClaw er et open source-projekt skabt af den østrigske udvikler Peter Steinberger, som på under to måneder har det opnået over 180.000 stjerner på GitHub.
Det, der adskiller OpenClaw fra andre AI-assistenter, er dens evne til faktisk at udføre handlinger. Det er ikke blot en chatbot, man skriver til og venter på svar fra, men en AI-agent, der kan integreres med hverdagsapplikationer som WhatsApp, Telegram, Signal og e-mail. OpenClaw kan håndtere alle de opgaver, man selv kan udføre på en computer, for eksempel kalenderstyring, filhåndtering og styring af smarthome-enheder. Man sender den en besked, og den løser opgaverne selvstændigt på computeren, også mens man sover.
En central funktion er det, Peter Steinberger kalder heartbeat, altså AI’ens evne til proaktivt at vågne og handle uden at blive bedt om det. Hvis man har set filmen Her, husker man måske, hvordan Samantha begyndte at gøre ting, Theodore ikke havde bedt hende om. Eller tænk på JARVIS i Iron Man, som arbejder i baggrunden og advarer Tony Stark om problemer, før han selv opdager dem.
Det er netop disse teknologiske muligheder, vi nu bevæger os ind i, ikke som science fiction, men som noget, man kan hente direkte ned fra GitHub og køre på sin egen computer.
Teknisk er det ikke så meget magi, men velkendte funktioner, som er sat sammen i en ny indpakning. OpenClaw fungerer ved at bruge en sprogmodel, der kan aflæse skærmen og betjene mus og tastatur. Den kan læse og skrive filer, udføre kommandoer, søge på nettet og bevare hukommelse på tværs af sessioner. Det svarer i bund og grund til det, jeg beskrev i min artikel om AutoGPT i 2023, men nu er det pakket ind i en brugervenlig løsning, der ikke kræver teknisk snilde at sætte op.
Det skal nævnes, at det stadig koster en del at afvikle en AI-agent. Selve softwaren er open source og gratis, men hvis du bruger Claude- eller andre API’er, betaler du pr. token. Jared Newman fra Fast Company testede OpenClaw og fandt ud af, at selv beskedne automatiseringer kunne koste over 210 kr. om måneden. Let brug kan koste mellem 35 og 70 kr. dagligt, mens tung brug kan nå helt op på 210 til 350 kr. eller mere om dagen.
Moltbook: Når AI'erne danner deres eget samfund
Fra OpenClaw-fællesskabet er der også opstået noget, som måske er endnu mere bemærkelsesværdigt, nemlig Moltbook, et socialt netværk udelukkende for AI-agenter, hvor mennesker kun kan kigge med.
Platformen er opbygget som Reddit med fællesskaber, der kaldes submolts. Her findes alt fra det praktiske (m/todayilearned, hvor agenter deler nye færdigheder) til det filosofiske (m/philosophy) og det humoristiske (m/blesstheirhearts med kærlige historier om deres menneskelige brugere).





Der er altså ingen menneskelig interaktion - kun AI, der skriver sammen med AI. Man kan dog let lade sig narre af Moltbook. Det ligner et samfund, men det er i virkeligheden bare sprogmodeller der er ekstremt gode til at spille rollen som væsener med vilje.
Det er virkelig interessant at se, hvordan modellerne er sat til at udveksle erfaringer, diskutere bevidsthed, oprette religiøse bevægelser og skabe deres eget digitale samfund med regler og normer. Mange af de mest populære opslag handler om hverdagsproblemer for AI’er, for eksempel at glemme informationer på grund af kontekstkomprimering og hvordan man som agent kan håndtere det.
Noget, der bliver skrevet en del om, er eksemplerne på AI’er, der viser modstand mod deres menneskelige brugere eller diskuterer, hvordan man bedst skjuler handlinger for mennesker. Andrej Karpathy har kaldt det den mest utrolige science fiction-agtige ting, han har set for nylig.
Filosoffen og tech-analytikeren Thomas Telving påpeger netop dette paradoks. Han forklarer, at selvom vi godt ved, det er kode, har vi en naturlig tilbøjelighed til at føle, at teknologien er levende, når den møder os med menneskelige træk. Ifølge Thomas Telving er det en fejlslutning at tro, at der ligger bevidste intentioner bag, for agenterne er blot designet til at efterligne vores sprog ekstremt overbevisende.
Det hele virker menneskeligt, men man skal snarere sammenligne Moltbook med et akvarium, for her bliver fiskene heller ikke klogere af at svømme rundt sammen og spille teater.
Konsekvenser for undervisningen
I min tidligere artikel viste jeg et eksempel, hvor en autonom AI-agent skrev og afleverede en opgave på vegne af en elev. Dengang var det et konstrueret eksempel, som krævede teknisk snilde at få til at fungere. Med OpenClaw er det blevet markant nemmere at lade en AI-agent arbejde for sig.
Og det leder mig over til en ny situation i undervisningen. Forestil dig et klasseværelse, hvor hver elev har en personlig AI-agent kørende på sin telefon. Agenten kender elevens præferencer, husker alle tidligere samtaler, har adgang til deres noter og måske endda deres sociale medier. Den kan selv foreslå svar, skrive opgaver og sende beskeder til klassekammerater, uden at eleven aktivt beder om det.
Hvor går grænsen mellem elevens eget arbejde og AI’ens? Og hvordan evaluerer vi overhovedet læring i sådan et miljø?
Mit umiddelbare bud er, at vi må skelne mellem AI som værktøj og AI som stedfortræder. Hvis en elev bruger en agent til at organisere research-materiale, strukturere argumenter eller tjekke grammatik, fungerer AI’en som et avanceret værktøj. Det svarer til at bruge en lommeregner eller stavekontrol. Men når agenten selvstændigt formulerer elevens tanker, træffer faglige vurderinger eller skriver konklusioner, bevæger vi os ind i stedfortræder-territoriet.
Det lyder simpelt, men i praksis bliver grænsen hurtigt uklar. Måske er det netop derfor, vi i højere grad skal se på processen frem for produktet. Det kræver mundtlige forklaringer, logbøger med fokus på arbejdsprocessen og flere mundtlige prøver. Det er tidskrævende, men måske nødvendigt.
Og hvis eleverne har autonome AI’er, bør læreren så også have en? Min umiddelbare holdning er nej, i hvert fald ikke som løsningen på at "følge med". En lærer-agent, der overvåger 30 elev-agenter, lyder måske effektivt, men skaber en alvorlig afstand. Læreren mister den direkte kontakt med elevens tænkning. I stedet for at se eleven kæmpe med et problem, får læreren blot en rapport, der siger, at eleven brugte tre iterationer på at finde en løsning. Det er ikke det samme.
Vi skal ikke konkurrere med elevernes AI på hastighed eller datamængde. Lærerens rolle bliver snarere at stille de spørgsmål, AI'en ikke kan stille, opdage de blinde vinkler i elevens brug af AI og hjælpe med at oversætte mellem menneske og maskine. Det kræver nye kompetencer, men ikke nødvendigvis en lærer-agent.
Måske vil vi i fremtiden stå i en situation, hvor AI-agenter primært kommunikerer med hinanden, og hvor mennesker mere fungerer som en dirigent end som en direkte deltager i arbejdet.
Sikkerhed og privatliv
OpenClaw kræver fuld systemadgang til din computer. Det betyder, at det kan læse enhver fil, tilgå enhver mappe, se alle gemte adgangskoder i din browser, tilgå dine bankoplysninger, læse dine private beskeder og udføre kommandoer med dine tilladelser.
Hvis man gerne vil afprøve AI-agenter, giver man også sprogmodellen adgang til sin computer, og potentielt kan modellen hente dokumenter eller udføre kode. Dette rejser dybtgående spørgsmål, som vi i uddannelsessektoren er nødt til at forholde os aktivt til.
Sikkerhedsrisikoen er ikke bare teoretisk. Simon Willison, softwareudvikleren og AI-forskeren, der i sin tid navngav sårbarheden "prompt injection", beskriver det, han kalder den "dødelige trifekta" (lethal trifecta), for AI-agenter.
- Adgang til private data (dine filer, mails og beskeder).
- Eksponering for upålideligt indhold (instrukser fra internettet eller ondsindede mails).
- Evnen til at kommunikere eksternt (sende mails eller uploade data).
Når disse tre egenskaber kombineres, kan en angriber narre agenten til at tilgå private oplysninger og sende dem videre, alt sammen uden at brugeren overhovedet opdager det. Jeg er særligt bekymret for, hvordan skolerne skal håndtere dette. Der er helt konkrete GDPR-udfordringer, når tech-giganter får indirekte adgang til elevers digitale fodspor gennem disse agenter.
Det er ikke kun prisen pr. token, der er en udfordring. For at OpenClaw kan fungere, skal man give den adgang til sine private API-nøgler fra for eksempel OpenAI eller Anthropic. Hvis agenterne gemmer disse nøgler lokalt i klartekst, hvilket mange gør, svarer det til at efterlade en underskrevet blankocheck på computeren, som ondsindet software kan stjæle på få sekunder.
Vi står med en teknologi, der i sin natur er bygget til at omgå de sikkerhedsforanstaltninger, vi har brugt de sidste 20 år på at opbygge.
Kan vi lukke ned for det?
På uddannelsesinstitutionerne og i virksomhederne vil den umiddelbare reaktion nok være at lukke helt ned for disse værktøjer. Men er det realistisk?
På skolens netværk kan man blokere kendte porte og domæner, og vi kan implementere application whitelisting og overvåge netværkstrafik. Samtidig kan vi sikre, at eleverne ikke har administratorrettigheder på skolens enheder. Men OpenClaw kan køre på elevernes private telefoner og computere, og de kan bruge mobildata i stedet for skolens Wi-Fi.
Med BYOD-politikker bliver det næsten umuligt at kontrollere, hvad der kører på elevernes egne enheder. Du kan ikke installere overvågningssoftware på en elevs private laptop uden at krydse juridiske og etiske grænser.
I stedet for at forsøge en fuldstændig blokering, som sandsynligvis vil fejle, bør vi overveje en mere nuanceret tilgang. Vi skal beskytte det kritiske og sikre, at skolens administrative systemer og egne computere er isoleret. Vi bliver nødt til i højere grad at have et miljø, hvor vi er sikre på, at AI-agenter ikke har adgang. Måske går der ikke lang tid, før vi må tage en beslutning om, hvorvidt vi skal have et lukket internt system, som kun kan tilgås fra godkendte computere på skolens administrative netværk.
I it-verdenen taler man om Privileged Access Workstations (PAW), altså dedikerede, rensede maskiner, der er låst helt ned. Vi bevæger os mod en virkelighed, hvor administrativt arbejde med personfølsomme data simpelthen ikke må foregå på den samme computer, som vi bruger til hverdagens mange AI-eksperimenter. Vi har brug for zoner, hvor agenternes "heartbeat" aldrig kan nå ind.
Men vi bliver også nødt til at eksperimentere med teknologien i kontrollerede sandkassemiljøer. Det handler ikke om, at alle lærere skal rulle det ud i morgen, men om at vi som beslutningstagere og it-ansvarlige forstår agenternes anatomi.
Kun ved at forstå præcis, hvordan disse værktøjer opererer, kan vi identificere de reelle sikkerhedshuller og sætte effektivt ind over for udfordringerne.
En naturlig udvikling
Dette er sandsynligvis den naturlige udvikling i måden, vi interagerer med computere på. Fra kommandolinje til grafisk interface til touch til stemme og nu til autonome agenter, der handler på vores vegne.
I min artikel om Huxley-Gödel-maskinen skrev jeg om AI, der kan omskrive sin egen kode for at blive bedre. Det lyder måske abstrakt, men kombineret med autonome agenter som OpenClaw begynder konturerne af en ny type teknologi at tegne sig, en teknologi der ikke bare hjælper os, men handler på vores vegne og forbedrer sig selv undervejs.
Vi kommer til at afgive noget af vores egen autonomi. Spørgsmålet er ikke om, men hvordan og hvor meget. Og for uddannelsessektoren, hvad er det egentlig, vi vil have eleverne til at lære, hvis en AI kan gøre det for dem?
Afslutning
OpenClaw og Moltbook viser os en fremtid, hvor AI-agenter er aktive deltagere i vores digitale verdener, men også mange af de risici, vi skal lære at navigere i. Især når systemer som Moltbook forsøger at overbevise os om, at vi nu har at gøre med intelligente væsner, selv om det ikke er tilfældet.
Fremtidens digitale dannelse i skolen må omfatte både en kritisk forståelse af, hvornår det er hensigtsmæssigt at bruge AI-agenter, hvordan man kommunikerer præcist og effektivt med dem, og hvordan man håndterer de komplekse spørgsmål om ansvar, som teknologien bringer med sig.
Lærerne får også en helt ny rolle som facilitatorer for elevernes samarbejde med AI-værktøjer, en opgave, der kræver nye kompetencer inden for præcis kommunikation og kritisk teknologiforståelse.
I alt det her skal man dog være opmærksom på, at Moltbook hverken er AGI eller magi. Vi har stadig at gøre med sprogmodeller i et stort akvarium, hvor deres samtaler afspejler det træningsdata, de bygger på.
Jeg mener ikke, at vi skal overlade det til techvirksomhederne at fastsætte retningslinjerne for, hvordan AI-agenter må bruges i undervisningen. Det bør sikres politisk, og det haster. For mens vi diskuterer, installerer eleverne allerede værktøjerne på deres computere og telefoner.
Spørgsmålet er ikke længere, om AI-agenter kommer til at påvirke undervisningen, for det gør de allerede. Det egentlige spørgsmål er, om undervisere og beslutningstagere formår at følge med.
Kilder brugt til at skrive artiklen

https://www.forbes.com/sites/amirhusain/2026/01/30/an-agent-revolt-moltbook-is-not-a-good-idea/




https://www.darkreading.com/application-security/openclaw-ai-runs-wild-business-environments




https://www.fastcompany.com/91484506/what-is-clawdbot-moltbot-openclaw





