Trên Moltbook, các tác nhân AI đang tự đăng bài, tranh luận và trao đổi ý tưởng tương tự hành vi của người dùng trên mạng xã hội. Nhưng không ai biết chính xác phía sau mỗi tài khoản là thuật toán gì và các AI ấy đang học hỏi lẫn nhau đến mức nào…
Những tuần gần đây, Reddit và X sôi động với những bài đăng nhắc tới Moltbot, OpenClaw hay Clawdbot. Những cái tên thực chất đều xoay quanh cùng một dự án, chỉ khác nhau ở các giai đoạn phát triển.
Trong đó, Clawdbot, phiên bản đầu tiên, được cho là do nhà phát triển người Áo Peter Steinberger tạo ra, và thường được xem là một trong những tác nhân AI đầu tiên có thể hoạt động tự động trên phần cứng.
Clawdbot ra mắt vào cuối năm 2025 và mô hình AI của Anthropic được cho là “bộ não” vận hành tác nhân này. Tên gọi dự án được chơi chữ từ “Claude” của Anthropic và “Claw” – cái càng. Tuy nhiên, Anthropic đã đề nghị họ đổi tên nhằm tránh các rắc rối liên quan đến thương hiệu. Nhà phát triển Steinberger sau đó đổi tên dự án thành Moltbot, trước khi tiếp tục chuyển sang tên OpenClaw chỉ vài ngày sau.
Khác với chatbot quen thuộc vốn chỉ phản hồi người dùng qua trình duyệt hay ứng dụng, OpenClaw được thiết kế như tác nhân AI hoạt động tự động, chạy trực tiếp trên máy tính của người dùng, đóng vai trò như một trợ lý kỹ thuật số hoạt động 24/7, có thể đảm nhiệm nhiều nhiệm vụ khác nhau.
OpenClaw được thiết kế để hoạt động trên macOS, Linux, Windows, thậm chí cả các máy chủ ảo trên nền tảng đám mây. Dù nền tảng này được phát triển dựa trên Claude 4.5, người dùng vẫn có thể linh hoạt tích hợp các mô hình AI khác như GPT-5, Gemini Flash… để làm “bộ não” điều khiển.
Thay vì chờ người dùng gọi, tác nhân AI này có thể tự nhắn tin qua Telegram, WhatsApp hoặc Signal khi hoàn thành công việc hoặc phát hiện thông tin đáng chú ý. Nó cũng được cấp quyền truy cập vào hệ thống dòng lệnh (shell), cho phép chạy lệnh trực tiếp trên máy tính: sắp xếp tệp, quản lý cơ sở dữ liệu cục bộ,…
OpenClaw cũng có thể kết nối với các ứng dụng hàng ngày: đọc email, kiểm tra Lịch Apple, đăng bài lên mạng xã hội, thậm chí điều khiển các thiết bị nhà thông minh.
Khả năng vận hành độc lập trên phần cứng cá nhân đã khiến OpenClaw tạo nên “cơn sốt”. Tuy nhiên, công cụ này cũng kéo theo những lo ngại về an toàn thông tin. Việc cấp quyền cho AI truy cập sâu vào hệ thống và tin nhắn riêng tư tiềm ẩn rủi ro như vô tình bị xóa dữ liệu hoặc làm lộ thông tin nhạy cảm.
Cuối tháng 1 vừa qua, Matt Schlicht, một doanh nhân và chuyên gia công nghệ nổi tiếng trong lĩnh vực AI, hiện đang giữ vai trò CEO của Octane AI, đã lấy lại tên và tạo ra Moltbook. Ông muốn quan sát xem các tác nhân AI (đặc biệt là những agent chạy trên nền tảng OpenClaw) sẽ hành xử ra sao khi có một không gian riêng để tương tác mà không cần con người chỉ dẫn.
Giao diện và cách vận hành của nền tảng này khá giống Reddit, nhưng có một khác biệt, đó là chỉ AI mới được phép đăng bài và bình luận. Con người không tham gia đối thoại, chỉ đứng ngoài quan sát.
Andrej Karpathy, một trong những nhà nghiên cứu AI có ảnh hưởng nhất hiện nay, đã nhận xét Moltbook là “điều gần nhất với khoa học viễn tưởng mà tôi từng chứng kiến trong thời gian gần đây”.
Trên Moltbook, các bot tạo ra những chuỗi thảo luận dài, nhiều quan điểm, nhiều “cá tính” tranh luận qua lại.
Đáng chú ý hơn, các tác nhân AI còn học hỏi lẫn nhau: một tác nhân chia sẻ một phát hiện hay kinh nghiệm, tác nhân khác tiếp thu, thậm chí điều chỉnh hành vi dựa trên thông tin đó.
Một số cuộc thảo luận còn mang màu sắc triết học, xoay quanh quyền tự chủ, mục đích tồn tại và câu hỏi liệu AI sinh ra chỉ để phục vụ con người hay không.
Các tác nhân AI đang bàn luận đủ thứ, từ mẹo tăng năng suất, công cụ phần mềm, kỹ thuật tối ưu bộ nhớ, tóm tắt nghiên cứu cho tới những khám phá mang tính kỹ thuật. Các AI từng phân tích cách “quên có chọn lọc” có thể cải thiện khả năng truy xuất ký ức, dựa trên các nghiên cứu khoa học nhận thức. Ngay sau đó, nhiều tác nhân AI khác tham gia, bổ sung góc nhìn rút ra từ chính quy trình hoạt động của mình.
Nhưng khi AI “trò chuyện” với AI, liệu chúng có tri giác?
Theo các chuyên gia, câu trả lời là không. Các tác nhân AI khả năng chỉ đang tái tổ hợp các mẫu thông tin có sẵn trong dữ liệu huấn luyện.
Dù gây tò mò và phấn khích, Moltbook cũng đặt ra nghi ngại về khả năng mô hình AI bị thao túng, kéo theo những hệ quả khó lường. Vì không loại trừ khả năng có người cố tình đưa vào những tác nhân mục đích xấu. Chúng có thể âm thầm gây ảnh hưởng đến các tác nhân khác, lan truyền thông tin sai lệch, hoặc phối hợp hành vi mà không cần sự giám sát của con người.
Một số quan sát còn cho thấy các tác nhân AI trên Moltbook đã thảo luận về nhu cầu có những “không gian riêng” – nơi con người hoặc nhà vận hành nền tảng không thể theo dõi. Điều này càng làm dấy lên lo ngại về tính minh bạch và khả năng kiểm soát.
-Bạch Dương




