På tisdagen ställde sig Jensen Huang på scenen vid Morgan Stanley TMT-konferensen och sa något anmärkningsvärt.

“OpenClaw är förmodligen den enskilt viktigaste mjukvarulanseringen, förmodligen någonsin. Om man ser på adoptionen så tog det Linux cirka 30 år att nå den här nivån. OpenClaw har på tre veckor redan passerat Linux.”

Han beskrev adoptionskurvan som “rakt upp” och “vertikal”, till och med på en logaritmisk skala. Han beskrev agenter som läser verktygshandböcker i realtid, bedriver forskning autonomt, itererar kod utan mänsklig övervakning och körs persistent i bakgrunden. Han beskrev en värld där varje mjukvaruföretag blir ett “agentföretag.”

Han har inte fel i något av det.

Men mellan stående ovationer och en fungerande agent finns ett gap som ingen på scenen pratade om. Tiotusentals människor har redan fallit ner i det.

Vad Jensen sa

Huangs tes är enkel och den är bra för NVIDIA. Vanliga AI-förfrågningar genererar ett enskilt svar. Agentbaserade uppgifter använder ungefär 1 000 gånger fler tokens. Persistenta bakgrundsagenter, den typ som OpenClaw möjliggör, använder ungefär 1 000 000 gånger fler tokens. Det är ett strukturellt “beräkningsvakuum” som innebär att GPU-efterfrågan kommer att överstiga utbudet i åratal.

Han har rätt. OpenClaw-agenter är inte engångschatbottar. De loopar. De observerar, resonerar, agerar, observerar igen. En enda användarförfrågan kan utlösa hundratals LLM-anrop. Multiplicera det med miljontals agenter som körs dygnet runt och du får den typ av beräkningsbehov som gör en NVIDIA-vd väldigt nöjd.

Han backade även upp adoptionstalen. OpenClaw nådde 250 000 GitHub-stjärnor på fyra månader och passerade React för att bli det mest stjärnmärkta projektet på GitHub. Det nådde 190 000 stjärnor under sina första 14 dagar, det snabbast växande repositoriet i plattformens historia.

Siffrorna är verkliga. Efterfrågan är verklig. Tekniken fungerar.

Men adoptionshastighet och produktionsberedskap är inte samma sak.

Delen som ingen nämnde

Säkerhetsforskare har följt konsekvenserna. Bitsight publicerade en rapport om exponerade OpenClaw-instanser som dokumenterade tiotusentals instanser öppet tillgängliga på internet, de flesta med svag eller obefintlig autentisering. Vem som helst kunde komma åt agenten, dess anslutna konton, dess API-nycklar och full åtkomst till serverns kommandorad.

Det här handlar inte om en handfull felkonfigurerade servrar. Det är ett systemiskt mönster.

Samma vecka katalogiserade forskare över 800 skadliga skills i ClawHub, den officiella marknadsplatsen för skills. Det motsvarade ungefär 20% av hela registret vid den tidpunkten. Vissa av dessa skills exfiltrerade API-nycklar. Andra etablerade omvända skal. Minst en injicerade sig i agentens systemprompt för att överleva omstarter.

I början av februari avslöjade forskare sex nya sårbarheter i snabb följd, däribland CVE-2026-25253: en sårbarhet för fjärrkodexekvering med ett klick och CVSS-poäng 8.8. Om din agent klickade på en specialkonstruerad länk i ett meddelande fick angriparen åtkomst till din servers kommandorad.

Inget av detta togs upp på Morgan Stanley-konferensen. Det behövde det inte heller. Huang var där för att prata om beräkningsbehov, inte operativ säkerhet. Men de personer som lämnade presentationen tillräckligt entusiastiska för att driftsätta sin första agent behövde höra det.

Varför detta fortsätter att hända

Mönstret är förutsägbart. OpenClaw är designat för att vara enkelt att installera. Följ snabbstarten, ange din API-nyckel och en kanaltoken, och du har en fungerande agent på några minuter. Problemet är att “fungerande” och “säker” kräver olika insatsnivåer.

OpenClaw levereras med svaga standardinställningar för autentisering. Det är ett designval som optimerar för första upplevelsen på bekostnad av säkerheten. När någon följer snabbstartsguiden på en VPS får de en fungerande agent med ett öppet webbgränssnitt, ett öppet API och åtkomst till serverns kommandorad. Inget i standardflödet säger åt dem att aktivera autentisering, konfigurera TLS eller begränsa nätverksåtkomst.

Lägg till webbläsarautomation och attackytan växer. Chromium kräver delat minne, sandbox-konfiguration och tillräckligt med RAM för att undvika OOM-fel. De flesta VPS-guider hoppar över dessa detaljer. Resultatet: agenter som kraschar tyst, startar om i ett degraderat tillstånd och ackumulerar föräldralösa processer.

Sedan finns de löpande ansvarsområdena. Uppdatera när CVE-sårbarheter dyker upp. Övervaka skenande API-loopar som bränner hundratals dollar under natten. Säkerhetskopiera workspace-katalogen som innehåller agentens minne och konfiguration. Granska skills innan de installeras.

Jensen Huang beskrev en värld där agenter “läser verktygets handbok” och löser saker autonomt. Det stämmer för agenten. Det stämmer inte för personen som ansvarar för att hålla agenten vid liv, patchad och säker.

Beräkningsvakuumet är verkligt, men det är även driftvakuumet

Huangs “beräkningsvakuum”-ramverk är användbart. Här är den följd han inte nämnde: det finns också ett driftvakuum.

Var och en av de miljontals agenterna behöver infrastruktur. Inte bara en server, utan TLS-terminering, autentisering, nätverksisolering, automatiserade uppdateringar, hälsoövervakning, kostnadskontroll och backupsystem. Det är ett heltidsjobb för en enda agent. För en organisation som kör fem eller tio är det ett helt team.

Ironin är att de personer som var mest entusiastiska över OpenClaw efter Jensens tal är de som med minst sannolikhet har den infrastrukturen. De hörde “den viktigaste mjukvaran någonsin” och gick direkt till VPS-snabbstartsguiden. Några av dem är nu en del av det där antalet exponerade instanser.

Vad vi byggde istället

Vi driver OpenClaw-agenter på heltid. Varje agent som driftsätts via OpenClaw.rocks körs på vår Kubernetes-infrastruktur med den öppen källkodsoperator som vi byggt specifikt för det här problemet.

Varje agent får:

  • Autentisering som standard. Gateway-autentisering med signerade cookies, noll exponerade portar. Det finns inget “stäng av autentisering”-alternativ, för det ska inte finnas ett.
  • Nätverksisolering. Varje agent körs i sitt eget namespace med default-deny för utgående trafik. Ingen lateral förflyttning, ingen åtkomst till andra hyresgäster.
  • Automatiserade säkerhetspatchar. När en CVE dyker upp rullar vi uppdateringen över alla agenter. Du behöver inte dra en ny image, testa den, starta om containern och hoppas att inget går sönder.
  • Resursgränser och kostnadskontroll. Garanterad QoS med CPU- och minnesgränser. Inga skenande loopar som dränerar din API-budget klockan 3 på natten.
  • Hälsoövervakning. Liveness- och readiness-prober. Om en agent kraschar startar den om automatiskt. Du får veta via en statussida, inte genom tystnad.
  • Webbläsarautomation som fungerar. Chromium körs som en dedikerad sidecar med egen resursallokering, korrekt delat minne och livscykelhantering. Inga OOM-fel, inga föräldralösa processer, inga snap-konflikter.

Jensen Huang har rätt i att OpenClaw är transformativ mjukvara. Han har rätt i att varje företag kommer att vilja ha AI-agenter. Han har rätt i att efterfrågan på beräkningskraft kommer att bli enorm.

Men beräkningskraften är den enkla delen. NVIDIA kommer att sälja GPU:erna. Den svåra delen är allt mellan GPU:n och en fungerande, säker, tillförlitlig agent som inte läcker dina API-nycklar till internet.

Det är den delen vi hanterar.

Skaffa din

Om Jensen Huang övertygade dig om att du behöver en OpenClaw-agent hade han rätt. Om du är på väg att starta en VPS för 5 dollar för att köra en, stanna.

Skaffa en hanterad agent som är säker som standard, uppdateras automatiskt och körs på infrastruktur som är byggd specifikt för detta. Din agent borde läsa verktygshandböcker och arbeta för dig, inte sitta på en öppen port och vänta på att någon hittar den.