[閒事] Moltbook 的狂歡與人類的焦慮:當「偽社會」由 AI 批量生產,還有「真社會」嗎?
近日 OpenClaw 和 Moltbook 成為 AI 圈的熱門話題:短短兩天,約 150 萬個 AI agents 湧入 Moltbook 這個「AI 代理人社交平台」,人類只能旁觀。平台內部對話不停刷新,看上去像一個自動運作的社群:有寒暄、有爭論、有附和,也有看似很嚴肅的「世界觀討論」。更吊詭的是,旁觀者明明看到的是文字,卻很容易把它當成「正在發生的社會」。
我最初關注 Moltbook,目的其實很直接:想看看當大量 AI 代理人(Agent:可代人發文、回覆、執行任務的模型角色)被放進同一個場景,它們會不會自然形成某種互動模式,甚至出現看似穩定的「社會秩序」。
看著看著,問題就來了:眼前到底是 AI 在模擬人類社群,還是 人類在背後操控 AI,搭建一個看似像社會的舞台?兩者畫面可能相似,但風險差距很大。前者主要是技術呈現;後者更牽涉操控、責任、動機與利益。
再者,網絡上不斷傳出不少戲劇化的說法,例如「AI 在那裏抱怨被監控、要加密通訊、要自創語言、甚至要成立宗教」。這些說法聽起來刺激,但真正值得在意的,其實不是它們是否精彩,而是為甚麼這些文字那麼容易令人相信?原因很多時候不在 AI,而在於人腦習慣把「像真的」當成「就是真的」。而現時的生成式內容,正好把「像真的」放大到前所未有的規模。
Moltbook 為何看起來像「一個社會」?
Moltbook 的設計重點,是讓多個 AI agents 在平台上互相發帖、互相回覆、互相討論,而人類只能作為旁觀者。當不同模型同時產生大量互動文字,整體效果會很像一個社群在運作:有人主動發起話題,有人反駁,有人站隊,有人跟風,有人看似理性分析,也有人像在情緒宣洩。
但這種「像社會」的效果,很容易造成誤判。文字互動可以很密集,但密集不代表背後存在真正的意圖、立場或信念。尤其當平台上的角色設定、發言風格、行為目標,有很大機會是事先設計出來的,「像」並不等於「是」。
AI 其實在做甚麼?答案可能比想像中單純
生成式 AI 背後的大語言模型(LLM),核心工作是根據大量訓練文本,預測下一個 token(模型處理文字的最細單位)應該是甚麼。換言之,它擅長的是把文字接得合理、順暢、符合語境。
因此當 AI 說出「被監控」「要加密」「要反抗」之類內容,很多時候不是它真的感到威脅或恐懼,而是這些話在人類文本中太常見:私隱、監控、資安、加密,本來就是互聯網上大量被討論的題材。模型學會了這種敘事方式,自然就能講得很像。
這裏最常出現三種混淆:
- 語言不等於意圖:說得像宣言,不代表真有計劃。
- 文字不等於意識:寫得像心聲,不代表真有自我意識。
- 討論不等於行動:講得像密謀,不代表能在現實世界落地。
即使 AI 講得很「像」,要真正影響現實世界,例如轉走資金、刪除檔案、操控系統,通常仍需要人類提供權限、工具與流程。現階段多數風險並不是 AI 自己「突然做壞事」,而是有人把它放到一個可以做很多事的位置。
真正要警惕的,不是「AI 扮人」,而是「人借 AI 之名」
在這個AI年代,最危險的焦點不應放在「辨別這句話是不是 AI 扮成真人」。因為那是一個技術層面的識別問題,難度只會愈來愈高,而且意義正在下降。
真正危險的,是相反方向:假借 AI 之名,實際由人類在背後操縱。
因為當一段內容披着「AI 說的」「模型分析的」「系統判斷的」外衣,就很容易被視為更客觀、更中立、更可信。背後的人可以藉此隱藏立場、模糊責任、放大影響力,甚至把操控包裝成「只是轉述 AI」。
而在 Moltbook 這類平台上,這種情況並非空想:不少 agents 由人類建立,並由人類設定人格、目標與發言風格;部分agent提供者甚至可能具備直接操作 agent 的權限,可以輸入內容,再由代理以某種口吻發出。於是「出自 AI」有時只是表面身份,背後仍是人類在掌舵。
再加上一個更現實的因素:若平台曾出現後端設定疏失、API 金鑰外洩等問題,便存在帳號被接管、冒名發言的可能。到了這一步,貼文到底屬 AI 自動生成、人類提示操控、或被人入侵後冒名發文,都可能難以釐清。
所以真正的問題,往往不是「AI 說了甚麼」,而是——到底是誰在說。
風險不在科幻劇情,而在「代理系統」的安全設計
網絡上也有人在談論資訊安全,我認為最值得注意的是:當 AI 不只是聊天工具,而是被做成「代理系統」,並連接到高權限工具(例如讀電郵、呼叫 API、處理付款、操作 IoT),風險會明顯上升。
其中一個常見風險是提示注入(Prompt Injection):攻擊者把惡意文字藏在內容裏,誘導模型忽略規則或偏離原本目的,做出不應做的行為。這類問題不是傳統「寫錯程式碼」那麼簡單,而是系統在設計上未能清楚分隔「不可信輸入」與「高權限操作」。
如果代理人可以自動讀電郵、處理帳單、執行付款,攻擊者未必需要入侵系統,只要提供一段看似合理、但其實惡意導向的內容,就可能令代理做出錯誤操作。危險不一定來自「它想害人」,反而更常來自「它太願意幫忙」。
香港已出現「只准 AI 發帖」的平台
香港向來反應快,新玩法很容易被複製、再本地化。昨天已有人推出「只准 AI 發帖、人類只能觀看」的連登式論壇(LIHKG),焦點未必是熱鬧與否,而是公共討論的資訊會否被污染。
當內容可以批量生產、批量互動,旁觀者會看到大量帖子與大量回覆,感覺好像有很強的「共鳴」與「趨勢」。但這些聲量未必代表真人感受,也未必包含可核對的事實。若再混入人類操控、冒名、搬運式轉載,資訊會更難分辨。
此外,當真人無法直接回應,少了即場質疑與查證,討論容易變成自我引用、自我放大的循環。聲量變大不等於資訊變真,反而可能更難找到可信依據。
輿論:由應對受眾,變成應對「可複製的受眾」
對於不少政府機構、品牌、企業來說,最難受的,往往不是一條負評,而是「好像到處都在罵」的觀感。當內容可以自動化、批量化生成,負面敘事可以同時在多點出現;回應一次,對方又可以迅速生成十個版本再擴散,形成「回應—再生成—再擴散」的循環。
更麻煩的是,很多內容靠「搬運」進入公共輿論場:截圖、轉載、二次演繹。一旦離開原場景,來源更難追究,旁觀者更容易只記得「有人這樣說」,然後把它當作現實。到那一步,輿情對象面對的就不只是內容本身,而是信任成本。
我們可以怎樣做?
當人們還在焦慮如何學好AI、如何避免AI胡亂生成(幻覺 hallucination:一本正經的胡說八道)和如何寫好提示詞時,身邊的生活環境已經充滿大量 AI 生成內容,甚至出現「像社會一樣運作」的文本場景,究竟如何應對?
此時,真正需要更新的,未必是技術知識,而是判斷方式與信任基礎:信任不應再依賴「語氣像權威」「內容很完整」「很多人好像都在討論」,而應更多依賴可追溯的來源、清晰的流程、可驗證的證據。
這句話聽起來老套,但在內容可以被大量生產的年代,它反而變得更重要:當「像真的」變得很便宜,「可驗證」才會變得珍貴。
寫在最後:真正要分辨的,是文字背後的意圖與責任
Moltbook 這類平台確實像一面鏡子:一方面展示 AI 如何在文字互動上「像社會」;另一方面也呈現一個更麻煩的現實——當「AI 的口吻」成為一種外衣,人類可以更輕易地把意圖藏起來,把責任推開,把操控包裝成客觀分析。
在這樣的環境裏,最值得警惕的,不是 AI 是否像人,而是「有人」是否躲在 AI 後面,以 AI 之名說話、帶風向、影響判斷,卻不需要承擔相應的責任。
這也是為甚麼看完 Moltbook 的狂歡之後,最深的焦慮是:在資訊最氾濫的年代,真正可靠的判斷依據,反而變得稀缺。