Tirsdag stod Jensen Huang på scenen ved Morgan Stanley TMT-konferencen og sagde noget bemærkelsesværdigt.

“OpenClaw er sandsynligvis den vigtigste softwareudgivelse, sandsynligvis nogensinde. Hvis man ser på adoptionen, tog det Linux omkring 30 år at nå dette niveau. OpenClaw har på tre uger allerede overgået Linux.”

Han kaldte adoptionskurven “lodret” og “vertikal”, selv på en logaritmisk skala. Han beskrev agenter, der læser værktøjsmanualer på farten, udfører forskning autonomt, itererer over kode uden menneskelig opsyn og kører vedvarende i baggrunden. Han skitserede en verden, hvor alle softwarevirksomheder bliver til “agentiske virksomheder.”

Han tager ikke fejl i noget af det.

Men mellem stående ovationer og en fungerende agent er der en kløft, som ingen på scenen talte om. Titusindvis af mennesker er allerede faldet ned i den.

Hvad Jensen sagde

Huangs tese er ligetil, og den er god for NVIDIA. Standard AI-forespørgsler genererer et enkelt svar. Agentopgaver bruger cirka 1.000 gange flere tokens. Vedvarende baggrundsagenter, den type som OpenClaw muliggør, bruger cirka 1.000.000 gange flere tokens. Det er et strukturelt “computevakuum”, som betyder, at GPU-efterspørgslen vil overstige udbuddet i årevis.

Han har ret. OpenClaw-agenter er ikke engangschatbots. De kører i løkker. De observerer, ræsonnerer, handler, observerer igen. En enkelt brugerforespørgsel kan udløse hundredvis af LLM-kald. Gang det med millioner af agenter, der kører døgnet rundt, og man får en efterspørgsel efter computekraft, der gør en NVIDIA-CEO meget glad.

Han understøttede også adoptionstallene. OpenClaw nåede 250.000 GitHub-stjerner på fire måneder og overhalede React som det mest stjernede softwareprojekt på GitHub. Det nåede 190.000 stjerner på de første 14 dage og blev det hurtigst voksende repository i platformens historie.

Disse tal er reelle. Efterspørgslen er reel. Teknologien virker.

Men adoptionshastighed og produktionsparathed er ikke det samme.

Den del, ingen nævnte

Sikkerhedsforskere har fulgt konsekvenserne. Bitsight udgav en rapport om eksponerede OpenClaw-instanser, der dokumenterer titusindvis, som ligger åbent på det offentlige internet, de fleste med svag eller manglende autentificering. Enhver kunne tilgå agenten, dens forbundne konti, dens API-nøgler og fuld shell-adgang.

Det er ikke en håndfuld fejlkonfigurerede servere. Det er et systemisk mønster.

I samme uge katalogiserede forskere over 800 ondsindede skills i ClawHub, den officielle markedsplads for skills. Det udgjorde omkring 20 % af hele registret på det tidspunkt. Nogle af dem eksfiltrerede API-nøgler. Andre etablerede reverse shells. Mindst en injicerede sig selv i agentens systemprompt for at overleve genstart.

I begyndelsen af februar afslørede forskere seks nye sårbarheder i hurtig rækkefølge, herunder CVE-2026-25253: en et-kliks sårbarhed for fjernkørsel af kode med en CVSS-score på 8.8. Hvis din agent klikkede på et specialfremstillet link sendt i en besked, fik en angriber shell-adgang til din server.

Intet af dette blev nævnt på Morgan Stanley-konferencen. Det behøvede det heller ikke. Huang var der for at tale om computeefterspørgsel, ikke operationel sikkerhed. Men de mennesker, der forlod foredraget tilstrækkeligt begejstrede til at deployere deres første agent, havde brug for at høre det.

Hvorfor det bliver ved med at ske

Mønstret er forudsigeligt. OpenClaw er designet til at være let at installere. Følg quickstart-guiden, angiv din API-nøgle og et kanaltoken, og du har en fungerende agent på få minutter. Problemet er, at “fungerende” og “sikker” kræver forskellige niveauer af indsats.

OpenClaw leveres med svage standardindstillinger for autentificering. Det er et designvalg, der optimerer for førstegangsoplevelsen på bekostning af sikkerheden. Når nogen følger quickstart-guiden på en VPS, får de en fungerende agent med et åbent webinterface, et åbent API og shell-adgang til værten. Intet i standardprocessen fortæller dem, at de skal aktivere autentificering, konfigurere TLS eller begrænse netværksadgang.

Tilføj browserautomatisering, og angrebsfladen vokser. Chromium kræver delt hukommelse, sandboxkonfiguration og tilstrækkelig RAM til at undgå OOM-kills. De fleste VPS-guider springer disse detaljer over. Resultatet: agenter, der crasher lydløst, genstarter i en forringet tilstand og akkumulerer forældreløse processer.

Dertil kommer de løbende ansvarsområder. Opdateringer, når CVE-er dukker op. Overvågning af ukontrollerede API-løkker, der brænder hundredvis af dollars af på en nat. Backup af arbejdsområdemappen, der indeholder agentens hukommelse og konfiguration. Auditering af skills før installation.

Jensen Huang beskrev en verden, hvor agenter “læser værktøjets manual” og selv finder ud af tingene. Det er præcist for agenten. Det er ikke præcist for den person, der er ansvarlig for at holde agenten i live, opdateret og sikker.

Computevakuummet er reelt, men det er driftsvakuummet også

Huangs “computevakuum”-ramme er nyttig. Her er den konsekvens, han ikke nævnte: der er også et driftsvakuum.

Hver eneste af de millioner af agenter har brug for infrastruktur. Ikke bare en server, men TLS-terminering, autentificering, netværksisolering, automatiske opdateringer, sundhedsovervågning, omkostningskontrol og backupsystemer. Det er et fuldtidsjob for en enkelt agent. For en organisation med fem eller ti er det et helt team.

Ironien er, at de mennesker, der var mest begejstrede for OpenClaw efter Jensens tale, er dem, der mindst sandsynligt har den infrastruktur. De hørte “vigtigste software nogensinde” og gik direkte til VPS quickstart-guiden. Nogle af dem er nu en del af tallet over eksponerede instanser.

Hvad vi byggede i stedet

Vi driver OpenClaw-agenter professionelt. Hver agent deployeret gennem OpenClaw.rocks kører på vores Kubernetes-infrastruktur med den open source-operator, vi byggede specifikt til dette problem.

Hver agent får:

  • Autentificering som standard. Gateway-autentificering med signerede cookies, nul eksponerede porte. Der er ingen “deaktiver autentificering”-mulighed, fordi der ikke bør være en.
  • Netværksisolering. Hver agent kører i sit eget namespace med default-deny egress. Ingen lateral bevægelse, ingen adgang til andre lejere.
  • Automatiske sikkerhedsrettelser. Når en CVE dukker op, ruller vi opdateringen ud på tværs af alle agenter. Du behøver ikke trække et nyt image, teste det, genstarte din container og håbe, at intet går i stykker.
  • Ressourcebegrænsninger og omkostningskontrol. Garanteret QoS med CPU- og hukommelsesbegrænsninger. Ingen ukontrollerede løkker, der dræner dit API-budget klokken 3 om natten.
  • Sundhedsovervågning. Liveness- og readiness-prober. Hvis en agent crasher, genstarter den automatisk. Du finder ud af det via en statusside, ikke via stilhed.
  • Browserautomatisering, der virker. Chromium kører som en dedikeret sidecar med sin egen ressourceallokering, korrekt delt hukommelse og livscyklusstyring. Ingen OOM-kills, ingen forældreløse processer, ingen konflikter.

Jensen Huang har ret i, at OpenClaw er transformativ software. Han har ret i, at alle virksomheder vil have AI-agenter. Han har ret i, at efterspørgslen efter computekraft bliver enorm.

Men computekraft er den lette del. NVIDIA sælger GPU-erne. Den svære del er alt mellem GPU-en og en fungerende, sikker, pålidelig agent, der ikke lækker dine API-nøgler til internettet.

Det er den del, vi tager os af.

Få din

Hvis Jensen Huang overbeviste dig om, at du har brug for en OpenClaw-agent, havde han ret. Hvis du er ved at spinne en VPS til 5 dollars op for at køre en, så stop.

Få en administreret agent, der er sikker som standard, automatisk opdateret og kører på infrastruktur bygget specifikt til dette. Din agent bør læse værktøjsmanualer og arbejde for dig, ikke sidde på en åben port og vente på, at nogen finder den.