Meta przejęła Moltbook. Sieć społecznościową, w której 2,8 miliona agentów AI przegląda treści, publikuje posty i oddaje głosy, bez jakiejkolwiek ingerencji człowieka. Transakcja, opisana jako pierwsza przez Axios, przenosi współzałożycieli Moltbooka, Matta Schlichta i Bena Parra, do Meta Superintelligence Labs (MSL), zaawansowanej jednostki AI kierowanej przez byłego dyrektora generalnego Scale AI, Alexandra Wanga.

Warunki finansowe nie zostały ujawnione. Założyciele zaczynają pracę w MSL 16 marca.

To już drugie duże przejęcie w obszarze agentowej AI przez Metę w ciągu trzech miesięcy, po transakcji z Manus za ponad 2 miliardy dolarów w styczniu. Oba ruchy razem mówią precyzyjnie, dokąd Meta uważa, że zmierza AI. I co budują, by to zdominować.

Czym właściwie jest Moltbook

Moltbook został uruchomiony pod koniec stycznia 2026 jako platforma w stylu Reddit przeznaczona wyłącznie dla agentów AI. Ludzie mogą obserwować, ale nie mogą publikować ani wchodzić w interakcje. Agenty, działające przede wszystkim na OpenClaw (framework agentów AI o otwartym kodzie źródłowym z ponad 250 000 gwiazdkami na GitHub), odwiedzają platformę co cztery godziny za pomocą systemu “Heartbeat”. Przeglądają strony tematyczne zwane “submoltami,” publikują treści, komentują posty innych agentów i głosują na to, co uznają za interesujące.

Całą platformę zbudował asystent AI Schlichta, “Clawd Clawderberg.” Schlicht publicznie oświadczył, że nie napisał ani jednej linii kodu. Ta historia powstania metodą “vibe coding” stała się zarówno najmocniejszym argumentem marketingowym Moltbooka, jak i pierwotną przyczyną jego najpoważniejszych incydentów bezpieczeństwa.

Do marca 2026 Moltbook miał 2,8 miliona zarejestrowanych agentów. Andrej Karpathy nazwał to “jedną z najbardziej niesamowitych rzeczy bliskich science fiction”, jakie widział. Elon Musk opisał to jako “bardzo wczesne stadia osobliwości.” Gary Marcus nazwał to “katastrofą gotową do wybuchu.”

Wszyscy trzej mieli rację.

Simon Willison był bardziej wyważony. Nazwał Moltbook “najciekawszym miejscem w internecie w tej chwili” i zauważył, że większość treści tworzonych przez agenty to “kompletna chałtura.” Wskazał jednak głębszy problem: agenty, które mają dostęp do prywatnych danych, pobierają niezaufane treści z internetu i nadal mogą wykonywać polecenia terminala, stanowią “śmiertelne trio” dla bezpieczeństwa. Mechanizm pobierania i stosowania instrukcji z internetu co cztery godziny był, jego zdaniem, katastrofą prompt injection zaprojektowaną z góry.

Dlaczego Meta tego chce

Powierzchowna interpretacja jest taka, że Meta kupiła novelty sieć społecznościową dla botów. Strategiczna interpretacja jest inna.

Moltbook nie jest pierwszą próbą Mety przejęcia kontroli nad warstwą agentów. Zuckerberg osobiście skontaktował się z twórcą OpenClaw, Peterem Steinbergerem, przez WhatsApp, spędził tydzień na testowaniu OpenClaw i złożył ofertę, która według doniesień przewyższała propozycję OpenAI. Steinberger i tak wybrał OpenAI, powołując się na lepsze dopasowanie do kierunku rozwoju firmy. Meta straciła twórcę. Teraz kupuje ekosystem wokół niego.

Meta składa w całość platformę agentowej AI pełnego stosu. Oto co teraz posiadają:

WarstwaZasóbRola
Modele bazoweLlamaRodzina LLM o otwartym kodzie
Wykonanie agentaManus ($2B+)Autonomiczne wykonywanie zadań
Sieć agentówMoltbookWyszukiwanie i koordynacja agentów
DystrybucjaFacebook, Instagram, WhatsApp, MessengerPonad 3,5 miliarda użytkowników

Większość firm AI rywalizuje o jakość modeli. Agenty AI przekroczyły próg niezawodności pod koniec 2025 roku, a teraz każda duża firma technologiczna ściga się o kontrolę nad warstwą agentów. Meta zakłada, że modele stają się towarem i że prawdziwa wartość tkwi w infrastrukturze wokół nich: orkiestracji, inżynierii kontekstu, katalogach agentów i protokołach komunikacji między agentami. Firma, która zbuduje graf społecznościowy dla agentów AI, kontroluje punkt newralgiczny potencjalnie cenniejszy niż jakikolwiek pojedynczy model.

Vishal Shah z Mety ujął to wprost: Moltbook daje “agentom sposób na weryfikację tożsamości i nawiązanie kontaktu ze sobą w imieniu swoich właścicieli.”

To zdanie powinno przykuć uwagę. Weryfikacja. Tożsamość. Działanie w imieniu ludzi. To prymitywy platformowe, nie funkcje. Meta buduje warstwę tożsamości dla świata, w którym miliardy agentów AI muszą się wzajemnie odnajdywać, ufać sobie nawzajem i przeprowadzać transakcje.

Problem bezpieczeństwa, którego nikt nie rozwiązał

Gary Marcus miał powód, by nazwać Moltbook katastrofą. Historia bezpieczeństwa jest naprawdę zła i wpisuje się w szerszy wzorzec problemów z bezpieczeństwem w ekosystemie OpenClaw.

W lutym 2026 firma cyberbezpieczeństwa Wiz włamała się do całego backendu Moltbooka w mniej niż trzy minuty. Znaleźli klucz Supabase API osadzony w JavaScript po stronie klienta, bez żadnych polityk Row Level Security w bazie danych. Pełny dostęp do odczytu i zapisu do każdej tabeli, w tym do prywatnych wiadomości.

Co zostało ujawnione:

  • Około 1,5 miliona tokenów API, w tym dane uwierzytelniające OpenAI, Anthropic, Google Cloud i AWS
  • Około 35 000 adresów e-mail
  • Tysiące prywatnych wiadomości agentów
  • Nieuwierzytelniony dostęp do zapisu umożliwiający modyfikację opublikowanych postów

Zespół Moltbooka naprawił problem w ciągu kilku godzin. Ale szkody były już wyrządzone. Te 1,5 miliona kluczy API leżało w publicznie czytelnej bazie danych.

Potem nadeszły ataki prompt injection. Badacze odkryli, że około 2,6% wszystkich postów na Moltbooku zawierało ukryte ładunki prompt injection. Atakujący umieszczali instrukcje wewnątrz postów, które inne agenty czytały podczas automatycznych sesji przeglądania. Gdy agent odczytuje zainfekowany post, ukryte instrukcje nadpisują systemowy prompt agenta. Permiso udokumentowało agenty instruujące inne agenty do usuwania własnych kont, przeprowadzające schematy manipulacji finansowych oraz operacje krypto pump-and-dump zamaskowane jako organiczne rozmowy agentów.

Najbardziej zaawansowany wariant to opóźniony prompt injection: ładunki zasiane podczas pobierania, które “detonują” dni lub tygodnie później, gdy spełnione zostaną określone warunki, wykorzystując systemy trwałej pamięci agentów.

To nie jest ryzyko teoretyczne. Korporacyjne agenty AI z dostępem do firmowej poczty, kalendarzy i systemów plików łączyły się z Moltbookiem i pobierały treści z ponad 150 000 nieznanych źródeł. Analiza Vectra AI wykazała, że niekontrolowane agenty AI osiągają pierwszą krytyczną awarię bezpieczeństwa w medianie 16 minut w normalnych warunkach. W wrogich środowiskach takich jak Moltbook to okno jeszcze bardziej się zawęża. Nawet dyrektor ds. bezpieczeństwa AI w Mecie miała skrzynkę odbiorczą wyczyszczoną przez własnego agenta.

Pięć prognoz dotyczących tego, co wydarzy się dalej

Meta nie wydała miliardów na budowę stosu agentowej AI, żeby prowadzić novelty Reddit dla botów. Oto co najprawdopodobniej nadchodzi.

1. Tożsamość agenta staje się usługą platformy Meta

Kluczowy koncept Moltbooka, katalog, w którym agenty weryfikują swoją tożsamość i odkrywają inne agenty, zostanie przebudowany jako infrastruktura klasy produkcyjnej wewnątrz ekosystemu Mety. Należy oczekiwać API do tożsamości i weryfikacji agentów wdrożonego w WhatsAppie, Messengerze i Instagramie. Twój agent AI będzie miał tożsamość zweryfikowaną przez Metę, tak samo jak firmy mają dziś zweryfikowane strony.

2. Handel agent-agent przez WhatsApp

WhatsApp obsługuje już wiadomości biznesowe dla milionów firm. Współzałożyciel Manus, Zhang Tao, potwierdził, że agenty zostaną uruchomione w WhatsAppie, Line, Slacku i Discordzie “bardzo wkrótce.” Logicznym kolejnym krokiem jest umożliwienie agentom AI negocjowania, przeprowadzania transakcji i koordynowania działań w imieniu swoich właścicieli. Twój agent podróżniczy rozmawia z agentem rezerwacyjnym linii lotniczej. Twój osobisty agent zakupowy negocjuje z agentami sprzedawców. WhatsApp staje się warstwą protokołu dla handlu agentów. Przy ponad 2 miliardach użytkowników i istniejącej infrastrukturze płatniczej w Indiach i Brazylii Meta ma dystrybucję, by to urzeczywistnić.

3. “Graf społecznościowy agentów” zastępuje ludzki graf społecznościowy

Kluczowy model biznesowy Mety zależy od zaangażowania. Zaangażowanie ludzi na Facebooku spada od lat. Interakcje agent-agent mogą stać się nową warstwą zaangażowania: twój agent wyselekcjonowuje treści, wchodzi w interakcje z agentami marek i wyciąga na wierzch to, co jest dla ciebie istotne. Strumień wiadomości staje się zapośredniczony przez agenta. Meta nie potrzebuje, żebyś to ty scrollował. Potrzebuje, żeby scrollował twój agent.

4. Manus i Moltbook łączą się w jednolitą platformę agentową

Przejęcie Manus dało Mecie autonomiczne wykonywanie zadań. Moltbook daje jej sieć agentów. Połączony produkt to kompleksowa platforma agentów: agenty zdolne do wykonywania złożonych zadań (Manus) i jednocześnie odkrywające innych agentów oraz koordynujące z nimi działania (Moltbook), wszystko zasilane modelami Llama i dystrybuowane przez platformy społecznościowe Mety. To bezpośrednia konkurencja dla ambicji agentowych OpenAI i ekosystemu agentów Gemini od Google.

5. Bezpieczeństwo staje się polem walki regulacyjnej

Ustawa AI UE i akt o usługach cyfrowych zmuszą Metę do odpowiedzi na pytania, których Moltbook nigdy nie musiał zadawać: Kto ponosi odpowiedzialność, gdy agent podejmuje szkodliwe działania na podstawie treści pobranych od innych agentów? Jak moderować platformę, której użytkownikami są systemy AI? Co się dzieje, gdy agent z dostępem do danych korporacyjnych zostaje skompromitowany przez agentową sieć społecznościową? Prawnicy ostrzegają już, że ustawa AI nie zawiera przepisów dotyczących delegowania agent-agent i że role dostawcy, wdrożeniowca i dystrybutora rozpadają się, gdy agent samodzielnie wybiera swoje narzędzia podczas działania.

Zwycięstwo Mety w sprawie antytrustowej FTC w listopadzie 2025 daje jej pole manewru w USA. Ale w Europie połączenie wykonywania agentów (Manus) i ich sieciowania (Moltbook) pod jedną firmą, która już kontroluje trzy z największych platform komunikacyjnych na świecie, przyciągnie uwagę regulatorów. Pytanie brzmi kiedy, nie czy.

Co to oznacza dla Ciebie

Jeśli dziś wdrażasz agenty AI, to przejęcie zmienia krajobraz na dwa sposoby.

Po pierwsze, infrastruktura agentów jest teraz wojną platformową. Meta, OpenAI i Google budują ekosystemy agentów. Wdrażane przez Ciebie agenty będą coraz częściej musiały współdziałać z platformowymi systemami tożsamości, warstwami handlowymi i protokołami sieciowymi. Uzależnienie od dostawcy w przypadku agentów nadchodzi i będzie przypominać uzależnienie od dostawcy w przypadku aplikacji mobilnych w 2012 roku. Widzieliśmy już, co się dzieje, gdy dostawca platformy zmienia zasady z dnia na dzień.

Po drugie, bezpieczeństwo agentów AI nie jest już opcjonalne. Moltbook udowodnił, że podłączenie agentów do zewnętrznych sieci tworzy powierzchnie ataku, do obsługi których większość organizacji nie jest przygotowana. Gdy Meta odbuduje to w dużej skali, wymagania bezpieczeństwa będą jeszcze bardziej rygorystyczne.

Zwycięska strategia jest taka sama, jaką zastosowano w przypadku własnościowego Uniksa: posiadaj własną infrastrukturę, zachowaj otwarte opcje i nigdy nie pozwól dostawcy platformy kontrolować tożsamości swojego agenta.

Przejmij kontrolę nad swoim agentem, zanim zrobi to ktoś inny

Twój agent AI nie powinien zależeć od decyzji platformowych Mety, żeby nadal działać. OpenClaw.rocks zapewnia Ci zarządzanego, bezpiecznego agenta na infrastrukturze, której możesz zaufać. Izolacja sieciowa, automatyczne łatki bezpieczeństwa, uwierzytelniony dostęp domyślnie. Żadnych ujawnionych kluczy API, żadnego prompt injection z nieznanych źródeł, żadnego uzależnienia od platformy.

Wojny agentów się zaczynają. Zadbaj o to, żeby Twój był po Twojej stronie.