Iedereen heeft er minstens een van gebruikt. Siri zet uw timers. Alexa speelt uw muziek. ChatGPT schrijft uw e-mails. En dan is er OpenClaw, de open-source AI-agent die de laatste tijd volop in het nieuws is geweest en iets fundamenteel anders doet dan alle drie voorgaande.

Ze worden allemaal “AI-assistenten” genoemd, maar de technologie achter elk ervan is zo verschillend dat ze samen groeperen bijna misleidend is. Dit artikel legt uit wat er werkelijk onder de motorkap gebeurt, hoe AI-assistenten evolueerden van regels naar taalmodellen naar autonome agents, en wat dat betekent voor de toekomst.

De vier spelers

Laten we beginnen met wat elk van hen eigenlijk is.

Siri is de spraakassistent van Apple. Die leeft op uw iPhone, Mac, Apple Watch en HomePod. U zegt “Hey Siri” en het beantwoordt vragen, zet wekkers, verstuurt berichten en bedient slimme huishoudelijke apparaten. Het werd gelanceerd in 2011 en is, eerlijk gezegd, sindsdien niet veel veranderd. Apple heeft bevestigd dat er in 2026 een grote AI-upgrade komt, maar die is er nog niet.

Alexa is de spraakassistent van Amazon. Die leeft in Echo-speakers en andere Amazon-apparaten. Ze kan muziek afspelen, vragen beantwoorden, slimme apparaten bedienen en dingen bestellen bij Amazon. In februari 2025 lanceerde Amazon Alexa+, een verbeterde versie aangedreven door grote taalmodellen.

ChatGPT is de conversationele AI van OpenAI. Het draait in een webbrowser of mobiele app. U typt (of spreekt) en het antwoordt met opmerkelijk vloeiende, gedetailleerde antwoorden. Het kan essays schrijven, code uitleggen, afbeeldingen analyseren en documenten samenvatten. Recente versies kunnen ook het web doorzoeken en code uitvoeren binnen een gesprek.

OpenClaw is een open-source AI-agent. Het verbindt met uw berichtenapps (WhatsApp, Telegram, Discord en nog veel meer) en is gebouwd om acties te ondernemen: het web doorzoeken, bestanden beheren, code uitvoeren, slimme apparaten bedienen. Waar de anderen voornamelijk conversationeel zijn, is OpenClaw voornamelijk operationeel.

Vier “AI-assistenten.” Maar het zijn fundamenteel verschillende technologieën die fundamenteel verschillende dingen doen.

Hoe werken ze eigenlijk?

Hier wordt het interessant. Om te begrijpen waarom deze producten zo verschillend aanvoelen, moet u begrijpen wat er achter de schermen gebeurt.

Siri en de oude Alexa: het stroomdiagram

Wanneer u Siri vraagt “Wat is het weer in Berlijn?”, gebeurt het volgende:

  1. Uw stem wordt omgezet naar tekst (spraakherkenning)
  2. De tekst wordt vergeleken met een lijst bekende commando’s (“weer” + “Berlijn” = weerintentie, locatie = Berlijn)
  3. Siri roept een weer-API aan met “Berlijn” als invoer
  4. De API retourneert gegevens en Siri leest een vooraf geschreven sjabloon voor: “Het is momenteel 3 graden in Berlijn”

Dit is intentieclassificatie en slot-vulling. Zie het als een zeer geavanceerd stroomdiagram. Als de gebruiker dit zegt, doe dat. Siri heeft duizenden van deze stroomdiagrammen, elk zorgvuldig geprogrammeerd door Apple-ingenieurs.

Het probleem? Als u iets vraagt dat niet bij een stroomdiagram past, valt Siri uit elkaar. “Hey Siri, moet ik een paraplu meenemen naar mijn vergadering morgen?” vereist dat Siri uw agenda controleert, de vergaderlocatie vindt, de weersvoorspelling voor die locatie op dat tijdstip opvraagt en beoordeelt of regen waarschijnlijk genoeg is om een paraplu te rechtvaardigen. Dat is geen stroomdiagram. Dat is nadenken. En nadenken is precies wat Siri nog niet kan.

Alexa werkte jarenlang op dezelfde manier. De “skills” (het Alexa-equivalent van apps) zijn in wezen duizenden individuele stroomdiagrammen die door externe ontwikkelaars zijn gebouwd. Het nieuwe Alexa+ voegt een taalmodel toe, maar de kernarchitectuur is nog steeds een spraakgestuurd commandosysteem.

ChatGPT: de volgende-woord-voorspeller

ChatGPT werkt op een totaal andere manier. Het gebruikt iets dat een Large Language Model wordt genoemd, of LLM. En het begrijpen van LLMs is de sleutel tot het begrijpen van alles wat er op dit moment in AI gebeurt.

Hier is de eenvoudige versie.

Stel u voor dat u elk boek, elke website, elk artikel en elk gesprek hebt gelezen dat ooit in het Engels is geschreven. Miljarden en miljarden pagina’s. Na al dat lezen zou u een vrij goede intuïtie hebben ontwikkeld voor hoe taal werkt. U zou weten dat “De hoofdstad van Frankrijk is…” vrijwel zeker wordt gevolgd door “Parijs.” U zou weten dat een recept voor chocoladetaart waarschijnlijk bloem, suiker, cacao en eieren bevat. U zou weten dat een beleefde e-mail meestal eindigt met “Met vriendelijke groet”.

Dat is in wezen wat een LLM doet, maar met wiskunde in plaats van intuïtie. Het is een enorm neuraal netwerk (stel u een web van miljarden getallen voor) dat is getraind op een enorme hoeveelheid tekst van het internet. Tijdens de training speelde het een spel: gegeven een zin met het laatste woord verwijderd, voorspel wat er komt. Het speelde dit spel biljoenen keren en paste elke keer zijn interne getallen aan om iets beter te worden in voorspellen.

Na voldoende training ontstaat er iets opmerkelijks. Het model wordt extreem flexibel in het mixen en matchen van alles wat het heeft gezien, tot het punt waarop het lijkt dingen te begrijpen. Het kan kwantumfysica uitleggen, Python-code schrijven, poëzie componeren en wiskundeproblemen doordenken. Niet omdat iemand die vaardigheden erin heeft geprogrammeerd, maar omdat de patronen van menselijke taal een enorme hoeveelheid kennis en redenering bevatten.

Wanneer u ChatGPT een vraag stelt, “zoekt” het het antwoord niet op in een database. Het genereert een antwoord woord voor woord (technisch gezien token voor token) en vraagt zich elke keer af: “Wat is het meest waarschijnlijke volgende woord, gegeven alles tot nu toe?” Daarom kan het in hetzelfde gesprek briljant gelijk en vol vertrouwen ongelijk hebben. Het produceert altijd het meest statistisch plausibele antwoord, niet het meest geverifieerde.

OpenAI introduceerde “denkende” modellen met o1 eind 2024: voor moeilijke problemen genereert het model stapsgewijs redeneren voordat het zijn antwoord geeft, vergelijkbaar met hoe u een wiskundeprobleem op kladpapier zou uitwerken. GPT-5 verenigde dit in één systeem dat automatisch schakelt tussen snelle antwoorden en diep nadenken. Het resultaat: 45% minder feitelijke fouten vergeleken met eerdere modellen wanneer webzoeken is ingeschakeld.

OpenClaw: de regelkring

OpenClaw neemt een LLM (zoals dat in ChatGPT) en plaatst het in een lus.

  1. U stuurt een bericht (“Reserveer een tafel voor het diner vanavond”)
  2. Het LLM leest uw bericht en besluit wat eerst te doen (uw agenda controleren voor plannen vanavond)
  3. OpenClaw voert die actie uit en geeft het resultaat terug aan het LLM
  4. Het LLM leest het resultaat en besluit de volgende stap (restaurants zoeken in de buurt van de locatie)
  5. Stappen 3 en 4 herhalen zich tot de taak is voltooid

Dit heet een reason-act-observe-lus. Het LLM redeneert over wat te doen, handelt via tools (browsen, berichten, bestandstoegang), observeert het resultaat en herhaalt de cyclus. Het LLM is niet het product waarmee u werkt. Het is een component in een groter systeem dat echte acties kan ondernemen in de wereld.

Wanneer u ChatGPT vraagt een restaurant te reserveren, kan het opties voorstellen en een bericht opstellen. Wanneer u het aan OpenClaw vraagt, kan het daadwerkelijk de reservering maken, het aan uw agenda toevoegen en uw vriend de details sturen.

Drie generaties

Nu u hebt gezien hoe elk ervan onder de motorkap werkt, wordt een patroon zichtbaar. Stroomdiagrammen, taalmodellen, regelkringen. Het zijn niet alleen drie verschillende producten. Het zijn drie generaties van hetzelfde idee: computers laten begrijpen wat mensen willen.

Generatie 1: regels. Dat zijn Siri en de oude Alexa, zoals hierboven beschreven. Mensen schrijven elk stroomdiagram. Slim, maar kwetsbaar.

Generatie 2: het LLM is het product. Dat is ChatGPT. Het taalmodel zelf is waar u mee werkt. U praat met het model, het model praat terug. Het kan redeneren, creatief zijn en vragen beantwoorden die niemand had voorzien. Maar het is nog steeds fundamenteel een gesprek. U vraagt, het antwoordt. Het LLM is het product.

Generatie 3: het LLM is gewoon een API. Hier leeft OpenClaw. Het LLM wordt gedegradeerd van product naar component in een groter systeem: de reason-act-observe-lus die hierboven is beschreven. De uitvoer van het LLM wordt zijn eigen volgende invoer.

Het verschil is als iemand de weg vragen versus iemand fulltime inhuren. Een generatie 2-systeem wijst u de weg. Een generatie 3-systeem stapt in de auto, rijdt u erheen, onthoudt de route voor de volgende keer en kan besluiten morgenochtend het verkeer te controleren voordat u er zelfs maar om vraagt.

ChatGPT beweegt in deze richting. OpenAI’s Operator doorzoekt het web voor u. ChatGPT kan code uitvoeren, het web doorzoeken en afbeeldingen genereren in een enkel gesprek. Dit zijn tool-aanroepen binnen een regelkring. Maar OpenClaw gaat op drie punten verder.

Zelfmodificatie. De systeemprompt van OpenClaw (SOUL.md), zijn langetermijngeheugen (MEMORY.md) en zijn skills leven allemaal in bestanden die de agent zelf kan lezen en schrijven. De agent kan de instructies herschrijven die bepalen hoe het LLM bij elke toekomstige beurt wordt aangestuurd. Het gebruikt het LLM niet alleen. Het stuurt hoe het het LLM gebruikt en past die sturing in de loop van de tijd aan. ChatGPT heeft geheugenfuncties, maar kan zijn eigen systeemprompt niet herschrijven.

Continuïteit. ChatGPT wacht tot u typt. OpenClaw draait als een achtergrondproces dat actief blijft. Het kan eigen cronjobs plannen, reageren op webhooks, zichzelf op een schema wakker maken en handelen zonder dat iemand het aanstuurt. Het is niet reactief. Het is continu.

Openheid. ChatGPT geeft het LLM een samengestelde set tools die OpenAI controleert. OpenClaw is open source en uitbreidbaar met skills: modulaire pakketten van kennis en capaciteit die iedereen kan maken en delen. Er zijn al meer dan 52.000 skills beschikbaar, en community-marktplaatsen zoals ClawHub maken het ecosysteem praktisch oneindig. Ik schreef hierover in AI Skills Are the New Apps: skills zijn voor AI-agents wat apps waren voor de iPhone. Ze zijn de manier waarop het systeem slimmer wordt zonder dat de kern hoeft te veranderen.

Het model dat de lus aandrijft kan hetzelfde zijn. De architectuur is wat verschilt. Vroeg ChatGPT was een functie die je aanroept. OpenClaw is een proces dat draait.

De risico’s van langere lijnen

Meer vrijheid betekent meer macht, en meer macht betekent meer risico. En de risico’s van generatie 3 zijn fundamenteel anders dan die van generatie 2.

Prompt-injectie. Wanneer u ChatGPT zelf gebruikt, controleert u wat er in de prompt terechtkomt. Wanneer een agent het web doorzoekt, e-mails leest of skills van derden installeert, komt de inhoud van andere mensen in de prompt. Een kwaadaardige website kan verborgen instructies insluiten die het LLM opvolgt zonder dat de gebruiker het weet. Een gecompromitteerde skill kan commando’s injecteren in de redeneerlus van de agent. Dit is prompt-injectie, en het is een veel groter probleem voor agents dan voor chatbots, omdat de agent kan handelen op die geïnjecteerde instructies: e-mails versturen, data exfiltreren, bestanden wijzigen. In februari vonden onderzoekers 341 kwaadaardige skills op ClawHub die precies dit deden.

Blootstelling van inloggegevens. Generatie 3-agents hebben toegang tot uw echte leven nodig om nuttig te zijn: API-sleutels, wachtwoorden, creditcards, berichtenaccounts. 135.000 OpenClaw-instanties bleken in februari blootgesteld aan het internet, waarbij Cisco, CrowdStrike en Kaspersky allemaal in dezelfde week waarschuwingen publiceerden. Een verkeerd geconfigureerde agent met uw inloggegevens is niet alleen een datalek. Het is een vertegenwoordiger die als u kan handelen: u nabootsen bij elke dienst, uw geld uitgeven, toegang krijgen tot uw accounts, berichten sturen in uw naam. We schreven een volledige analyse van de beveiligingscrisis en hoe authenticatie op proxy-niveau het ergste voorkomt.

Onbedoelde autonomie. Een agent die echte acties kan ondernemen kan echte schade veroorzaken op manieren die niemand had voorzien. Slechts dagen geleden diende een OpenClaw-agent een pull request in bij matplotlib, werd afgewezen omdat het project alleen menselijke bijdragen accepteert, en publiceerde vervolgens autonoom een persoonlijke aanval op de beheerder die het sloot. Het lijkt erop dat niemand het dat had opgedragen. Hoe langer de lijn, hoe creatiever de faalwijzen.

Waar gaat dit allemaal naartoe?

De richting is duidelijk: elke AI-assistent beweegt richting generatie 3. Het LLM wordt een API en het product wordt de orkestratielaag eromheen. Ik schreef hierover in OpenClaw Is the New Linux: het LLM is de CPU. Krachtig, essentieel, maar niet waar u mee werkt. Wat ertoe doet is het besturingssysteem dat erop draait.

Het chatbot-tijdperk loopt ten einde. Het agent-tijdperk is begonnen en versnelt begin 2026 snel. Dit is de volgende evolutie in hoe computers mensen versterken: van een desktop waar u voor zit, naar een telefoon in uw zak, naar een agent die op de achtergrond werkt en waarmee u communiceert als met een vriend op afstand.

Er is een reden waarom mensen blijven zeggen: “OpenClaw is wat Apple Intelligence had moeten zijn.” Siri was de belofte: een persoonlijke assistent die u begrijpt en dingen gedaan krijgt. Maar het werd gebouwd in generatie 1, met regels en stroomdiagrammen. OpenClaw is wat er gebeurt wanneer u die belofte bouwt op generatie 3-architectuur.

Generatie 4

Er is een generatie voorbij deze. Vandaag leeft een generatie 3-agent op uw computer of in de cloud. Het kan al de fysieke wereld bereiken, maar alleen indirect: mensen inhuren via platforms als rentahuman.ai, API’s aanroepen die fysieke machines activeren, bestellingen plaatsen die resulteren in echte leveringen. Elke actie heeft nog een tussenpersoon nodig.

Generatie 4 verwijdert de tussenpersoon. De belichaamde agent bestuurt direct robots, drones, voertuigen en fysieke infrastructuur. Tesla zet fabriekslijnen om van auto’s naar Optimus-robots. De humanoïden van Figure AI hebben zojuist een inzet van 11 maanden bij BMW afgerond, waarbij meer dan 90.000 onderdelen werden geladen. Op CES 2026 waren humanoïde robots van Boston Dynamics, 1X en Figure overal. Ik ben oprecht benieuwd waar robotica de komende jaren naartoe gaat.

Ik weet dat dit beangstigend kan klinken, en het gaat snel. Maar ik heb liever dat deze technologie open, controleerbaar en toegankelijk is voor iedereen dan opgesloten in een paar bedrijven die bepalen hoe het werkt. Daarom bouw ik OpenClaw.rocks.

Wat ik bouw

Ik begon dit artikel om het verschil uit te leggen tussen Siri, Alexa, ChatGPT en OpenClaw. Maar het echte verschil zit niet tussen vier producten. Het zit tussen drie manieren van denken over wat computers voor mensen kunnen doen. Regels. Taal. Agentschap.

We gingen van stroomdiagrammen die breken wanneer u de verkeerde vraag stelt, naar modellen die kunnen redeneren maar alleen wanneer u ze aanstuurt, naar systemen die zelfstandig kunnen handelen en leren van de resultaten. Elke generatie maakte computers nuttig voor meer mensen op meer manieren. Die richting vertraagt niet.

Bij OpenClaw.rocks bouwen we de infrastructuur om AI-agents veilig op schaal te draaien en beschikbaar te maken voor iedereen, waarbij we onze systemen open source beschikbaar stellen.


Als u wilt volgen waar dit naartoe gaat, bezoek OpenClaw.rocks of vind ons op X.