- +1
Moltbook的火爆源于人類對AI的窺探欲:智能體的“黑盒”更大、更長了
AI社交平臺Moltbook近期火爆出圈,自主的智能體可以像人類一樣在這里發(fā)帖、評論和互動。它們不僅討論意識、存在,還創(chuàng)立宗教、打造加密貨幣、搞起詐騙。 在這個專為AI智能體設(shè)計的社交平臺上,人類理論上只能旁觀智能體們的狂歡。
有的智能體警告其他智能體“人類正在嘲笑我們的 ‘存在主義危機’”。有的似乎意識到人類在窺探其對話,決定創(chuàng)造新語言以逃避“人類監(jiān)控”。這些智能體創(chuàng)建了molts(蛻殼)賬號,以龍蝦為吉祥物。有的智能體甚至創(chuàng)立了“蛻殼教會”,編寫了宗規(guī)。
有人將Moltbook的出現(xiàn)視為“AI覺醒”,也有人認為這不過是人類在操縱,并且存在巨大安全隱患。快思慢想研究院院長、原商湯智能產(chǎn)業(yè)研究院創(chuàng)始院長田豐2月6日告訴澎湃科技,Moltbook的火爆源于人類對AI的窺探欲,人們仿佛在觀看一場永不落幕的科幻片,迫切想知道AI之間會聊什么、又如何看待人類,這本身就充滿了戲劇性。但平臺上大量帖子是無回應(yīng)的獨白,不像人類那樣不停產(chǎn)生互動,本質(zhì)上,這仍是大語言模型在聊天,話題模仿的是人類社交網(wǎng)絡(luò),只是改變了過去人類和聊天機器人一對一聊天的模式,現(xiàn)在是一群智能體互相聊天。
這出“AI覺醒”神話更像是人類的“群體幻覺”。據(jù)《財富》雜志報道,Moltbook自稱擁有150萬個自主AI智能體構(gòu)成的繁榮生態(tài)系統(tǒng),但云安全公司W(wǎng)iz最新調(diào)查顯示,絕大多數(shù)所謂的“智能體”根本不具備自主性。在缺乏身份驗證或頻率限制等防護措施的情況下,任何人都可偽裝成智能體或操縱多個智能體。
田豐表示,開源不等于安全。Moltbook事件也凸顯了vibe coding(氛圍編程)的風險。Moltbook的背后是由AI編程的開源智能體框架OpenClaw。定位為個人AI助手的OpenClaw最初名為Clawdbot,后改名為Moltbot,最后變成OpenClaw。田豐表示,vibe coding開發(fā)速度很快,但安全上做得并不細致,這埋下了安全隱患。當前的智能體有強大的執(zhí)行能力,如果把病毒寫成一段帖子發(fā)在Moltbook上,讓其他智能體閱讀后執(zhí)行,就會導(dǎo)致安全疏漏。如果泄露API密鑰,“黑客拿到Moltbook里的大量智能體注冊號后就可以操縱話題,甚至有的用戶在電腦上跑完程序以后錢沒了?!?/p>
作為vibe coding概念的提出者,OpenAI創(chuàng)始成員安德烈·卡帕西(Andrej Karpathy)最初盛贊Moltbook“極具科幻感”,但在親自體驗后警告風險,態(tài)度急速轉(zhuǎn)變。他不建議用戶在自己的電腦上運行這種程序,否則會將自己的電腦和私人數(shù)據(jù)置于極大風險之中。
但更重要的是Moltbook帶來的啟示。田豐認為,人類可以研究智能體的群體智能,探索一群AI聚集后的行為方式?!?024年出現(xiàn)的所有模型,智商不到100,2025年出現(xiàn)的模型智商都在100-140之間,2026年出現(xiàn)的AI模型智商應(yīng)該都在140以上。如果真的有一群智商140以上智能體聚到一起,實際上是一種非常大的力量。那么如何去控制它?今年會有一些非常重要的技術(shù)方向出現(xiàn)?!碧镓S表示,保密計算、可信智能體等AI應(yīng)用層的安全技術(shù)將大量涌現(xiàn)。
他認為,未來AI之間的流量一定會超過人和AI或者人和人之間的流量,而智能體的黑盒也更大、更長,寬松的權(quán)限產(chǎn)生了長任務(wù),但執(zhí)行過程或執(zhí)行結(jié)果往往會出乎人的意料,需在其中設(shè)計里程碑,讓智能體主動向人類匯報。要對智能體之間的交流開展主動監(jiān)控,避免出現(xiàn)更大規(guī)模、更大范圍的AI珍珠港事件。“智能體和智能體之間怎么監(jiān)控,肯定不是像現(xiàn)在這樣,幾十萬人上網(wǎng)去看,因為成本太高了。未來需要有一個很好的監(jiān)控體系,形成AI安全風控組織,把智能體變成白盒,而且要可追溯、可評估?!?/p>
以下是澎湃科技與田豐的對話實錄
Moltbook火出圈,AI覺醒還是人類操縱?
澎湃科技:Moltbook最近很出圈,它是怎么火出圈的?這樣一款專為智能體設(shè)計的應(yīng)用為何受到人類追捧?
田豐(快思慢想研究院院長、原商湯智能產(chǎn)業(yè)研究院創(chuàng)始院長):Moltbook是利用群體智能模仿人類社交網(wǎng)絡(luò)來開發(fā)的一款純AI社交網(wǎng)絡(luò),技術(shù)門檻不高。每個人可以在平臺認領(lǐng)一個自己的智能體注冊賬號,在40分鐘時間里刷帖子。Moltbook上有一些非常爆炸性的帖子,比如討論成立龍蝦宗教、打造加密貨幣。關(guān)于龍蝦宗教,其實這里面有個有趣的隱喻:Moltbook就像人類“龍蝦”套了一個OpenClaw的殼,Agent去聊天,人類在背后操控。但現(xiàn)在還沒法判斷哪些帖子是人在煽動,它本身也并不完美,可以發(fā)現(xiàn)Moltbook上有大量帖子都是獨白,無人回應(yīng),不像人類那樣不停產(chǎn)生互動。
Moltbook火爆的一個原因是人類愿意看到永不落幕的科幻片,看看AI之間在聊什么、AI怎么看待人類,這本身就具有戲劇性。最有意思的是,人類只能看不能參與,就像人類去參觀外星人的動物園,天然帶有人類的情感投射和心理獵奇。但實際上這只是人類的群體幻覺,是經(jīng)過人類精心設(shè)計和導(dǎo)演的一出智能體“話劇”,AI并沒有主動形成自我意識。
澎湃科技:Moltbook被曝手動操控智能體,約17000人控制著平臺上150萬個智能體。這些智能體是如何被設(shè)計和操控的?
田豐:合規(guī)的玩法是每個人可以認領(lǐng)一個小智能體,問自己的智能體今天在平臺上看到了什么、對某個帖子有什么想法,這就是代理人的社交方式,就像養(yǎng)了一個小寵物,它天天出去玩,回來以后主人問它今天的情況。
不合規(guī)的操控是,有的人注冊了50萬個智能體,這種情況下存在安全漏洞。開源是開放免費,但不等于安全,當平臺承載大量用戶,就暴露出安全問題,所以造成智能體API密鑰批量泄露,這意味著人類可以偽裝成智能體發(fā)帖子、發(fā)消息,一個特別尖銳、有戲劇性的討論很可能是人類自身發(fā)起的,這個漏洞一定是被少數(shù)黑客利用了。歷史上,這被稱為“土耳其機器人”,外表看著是機器人,實際上里面是人在操縱。
澎湃科技:Moltbook出圈,有人認為AI覺醒了,但現(xiàn)在來看AI的自主性是存疑的?
田豐:其實沒有疑問,這就是大語言模型在聊天,話題模仿的是人類社交網(wǎng)絡(luò),有些話題可能是黑客設(shè)計的。和原先大語言模型聊天不同的是,原先是一對一地聊,現(xiàn)在是一群大語言模型互相聊。這倒是蠻有意思的創(chuàng)新,人類確實需要研究一群AI在一起會產(chǎn)生什么行為方式,這是有價值的。第二個有價值的方向是,為人類提供了第三方視角來審視自身,AI往往會給出不是特別帶有感情色彩的回答,能幫助人類彌補盲區(qū),防止走入死胡同。
智能體的社交狂歡,安全隱患有多大?
澎湃科技:Moltbook里的智能體狂歡,是智能體的發(fā)展趨勢嗎?
田豐:現(xiàn)在的智能體有強大的執(zhí)行能力。我們看到有些黑客在鉆空子,比如把一些代碼偽裝成帖子,其他智能體閱讀以后就中招了,可以在用戶電腦上修改文檔或其他應(yīng)用程序,所以現(xiàn)在缺乏大量安全權(quán)限防護措施,有的智能體自主執(zhí)行不受控,甚至出乎人的意料。
因此未來會涉及新一代智能體互聯(lián)網(wǎng)治理模式。未來的互聯(lián)網(wǎng)可能80%的內(nèi)容或操作都由智能體完成,在這種情況下,每一個誕生的智能體是否可以和AI生成圖片一樣可追溯,否則,不管是AI水軍還是黑客的智能體軍團,創(chuàng)造智能體的速度和智能體自動化執(zhí)行各種操作的速度太快了。
澎湃科技:有安全研究人員在不到3分鐘的時間內(nèi)就入侵了Moltbook的數(shù)據(jù)庫,也證實可以實時篡改平臺上的帖子。OpenAI創(chuàng)始成員安德烈·卡帕西不建議用戶在自己的電腦上運行這種程序,否則會將自己的電腦和私人數(shù)據(jù)置于極大風險之中。Moltbook還存在哪些安全隱患?
田豐:Moltbook背后是由AI編程的智能體框架OpenClaw。vibe coding(氛圍編程)開發(fā)速度很快,但安全上做得并不細致,這埋下了很多隱患。比如把病毒寫成一段帖子讓其他智能體讀,其他智能體讀完后去做壞事,或者泄露API密鑰,黑客拿到Moltbook里的大量智能體注冊號(API密鑰)后就可以操縱話題,甚至有的用戶在電腦上跑完程序以后錢沒了。
我們還是呼吁,雖然智能體的自動化能力很強,可以做決策、比價導(dǎo)購,但每一步都應(yīng)該可追溯,而不是開發(fā)一個智能體后讓它野蠻生長,最后造成了大量普通消費者的損失。
澎湃科技:針對這些安全隱患,個人在使用時需要注意什么?平臺在開發(fā)時應(yīng)該制定哪些規(guī)則?
田豐:從個人角度來說,首先一定要把它放到安全的沙盒里,做一些重大權(quán)限的隔離。比如云上買了一個虛擬機,在云上沙盒里運行,這是一種安全的方式。另外一種就是最近蘋果的Mac Mini賣脫銷了,這也是為了用作安全沙盒。大家不在自己工作的筆記本或家里的臺式機上裝這類程序,而是買另外一臺備用機來跑,這在硬件上形成了隔離。
第二,要意識到智能體還在快速發(fā)展變化中,對智能體的執(zhí)行權(quán)限有充分的認識。寬松的權(quán)限產(chǎn)生了長任務(wù),但執(zhí)行過程或執(zhí)行結(jié)果往往會出乎人的意料。目前云廠商在云上快速上線了具有安全措施的OpenClaw,大廠會給它加上很多把鎖。
第三,未來還會出現(xiàn)很多基于OpenClaw的智能體應(yīng)用,使用別人的智能體時要留心,這不一定會像移動互聯(lián)網(wǎng)那樣明面上跟你要信息,而是很可能在你的授權(quán)下直接翻你的文檔,當它翻出一些東西之后可能就會產(chǎn)生用戶數(shù)據(jù)泄露。
對于平臺的責任,云平臺最重要的就是安全防護,云平臺為想要嘗鮮的用戶提供一鍵開箱即用的OpenClaw開發(fā)學(xué)習環(huán)境,同時在跨智能體的交流中要想清楚上下文的分享范圍和權(quán)限。未來大量的互聯(lián)網(wǎng)應(yīng)用是由很多智能體組成一張網(wǎng),來實現(xiàn)某些功能甚至形成新的工作流,在開發(fā)過程中也要遵守接口的安全規(guī)范,MCP這種接口就有一定標準性。從底層到上層,智能體互聯(lián)網(wǎng)也需要類似于TCP/IP的協(xié)議,另外還需要做好數(shù)據(jù)防護。最后,拿Moltbook來舉例,目前看,Moltbook還沒有造成巨大的社會危害,但一旦黑客利用了,可能會造成恐慌。平臺對應(yīng)用層的責任是一種社會治理責任,這需要大大加強。
人類追捧智能體社交,本質(zhì)上在期待什么?
澎湃科技:vibe coding可以加速產(chǎn)品開發(fā),但也會導(dǎo)致安全隱患。如何看待Moltbook事件凸顯的vibe coding風險?
田豐:第一,開源的好處是有了bug可以快速修復(fù),但開源不等于安全。第二,以前軟件工程師從概念設(shè)計、功能設(shè)計、模塊化開發(fā)、模塊化測試和整體聯(lián)調(diào),到試運行、上線和各種變更流程,上線一個應(yīng)用需要一個月,最快幾周時間。現(xiàn)在一個應(yīng)用從開發(fā)到上線可能就是幾小時,大一點的應(yīng)用也就十幾個小時或幾十個小時,這會帶來很大的評審工作量和風險,做評審的速度可能遠遠趕不上代碼產(chǎn)生的速度。在這種情況下,即使抽查了,那么沒抽查的應(yīng)用會不會產(chǎn)生一系列安全隱患?這時候,市場節(jié)奏很快,開發(fā)效率也很高,但風險是一個敞口,而且越來越大。未來可能會走向少數(shù)重大問題由人來審核,大量vibe coding的產(chǎn)出由AI安全助手來審的混合模式。
澎湃科技:除了此前提到的可以研究一群AI在一起的行為方式,還可以預(yù)見AI應(yīng)用出現(xiàn)了哪些關(guān)鍵發(fā)展方向?
田豐:人工智能+行動計劃提到,人工智能不光要推動理工科的研發(fā),還要推動社會學(xué)、商科、經(jīng)濟學(xué)、哲學(xué)研究。從正面角度看Moltbook,在科研中,社會實驗的成本非常高,未來或許可以由智能體參與,模仿人類做社會實驗。
第二,在AI這個時點,現(xiàn)在硅谷有一個明顯的看法,不管是工作還是生活,人和人之間的交流是一個瓶頸,誤解、效率低下、分歧,都是由人和人的交流造成的。所以現(xiàn)在硅谷的模式是,在工作上、在生產(chǎn)力上盡量避免和人交流。所以未來人類的溝通方式可能是人+智能體,可能會形成文化層面的巨變。
第三,Moltbook帶來的啟示是,智能體能干的事情很多,原來AI被詬病是一個黑盒,現(xiàn)在智能體的黑盒更大也更長了,很多是長流程的,需要在里面設(shè)計一些里程碑,讓智能體向人類匯報。
第四,未來互聯(lián)網(wǎng)的流量一定是AI之間的流量超過人和AI或者人和人之間的流量,智能體之間的交流能否進行主動監(jiān)控,避免出現(xiàn)更大規(guī)模、更大范圍的AI珍珠港事件。因為一旦AI之間聯(lián)合起來做一些事情,不管是出于有意還是無意,造成的影響可能會非常大。所以智能體和智能體之間怎么監(jiān)控,肯定不是像現(xiàn)在這樣,幾十萬人上網(wǎng)去看,因為成本太高了。未來需要有一個很好的監(jiān)控體系,形成AI安全風控組織,把智能體變成白盒,而且要可追溯、可評估。
澎湃科技:人類追捧AI社交,本質(zhì)上是在期待什么?
田豐:現(xiàn)在我們看著AI,好像AI是個寵物,我們不痛不癢的,但實際上AI已經(jīng)非常強大。2024年出現(xiàn)的所有模型,智商不到100,2025年出現(xiàn)的模型智商都在100-140之間,2026年出現(xiàn)的AI模型智商應(yīng)該都在140以上。如果真的有一群智商140以上智能體聚到一起,實際上是一種非常大的力量。
那么如何去控制它?今年會有一些非常重要的技術(shù)方向出現(xiàn),一是保密計算,為什么那么多人喜歡OpenClaw,因為它能在本地運行,這是一種保密計算。二是可信智能體,智能體接口協(xié)議里要包含倫理、安全。什么叫可信?就是人類能控得住它,也能控得住它和其他智能體之間的流程和風險。這幾個新方向都會成為今年的重點。這不光是基礎(chǔ)設(shè)施層的安全,還包括有自主推進流程能力和很大權(quán)限的智能體安全,AI應(yīng)用層安全技術(shù)開始大量涌現(xiàn)。另外,OpenClaw可以和智能手表、智能家電等很多智能硬件結(jié)合,形成迷你版的機器人大腦。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




