近日,開源AI智能體OpenClaw(“賽博龍蝦”)迅速走紅網(wǎng)絡。隨著應用熱度持續(xù)攀升,多地政府相繼出臺專項扶持政策,從企業(yè)到個人開發(fā)者,部署OpenClaw正成為新的趨勢。該工具通過整合通信軟件與大語言模型,能夠在用戶電腦上自主執(zhí)行文件管理、郵件收發(fā)、數(shù)據(jù)處理等復雜任務,展現(xiàn)出強大的自動化能力。與此同時,智能體能夠直接調(diào)用系統(tǒng)資源并自主執(zhí)行指令,這也帶來了新的安全挑戰(zhàn)。
有業(yè)內(nèi)提醒,即使升級到官方最新版本修復已知漏洞,也并不意味著安全風險完全消除。由于智能體具有自主決策、調(diào)用系統(tǒng)資源以及技能包來源復雜等特點,如果缺乏有效防護措施,仍可能引發(fā)數(shù)據(jù)泄露或系統(tǒng)被控制等安全問題。
3月10日,《關于OpenClaw安全應用的風險提示》發(fā)布,指出該類智能體在運行過程中通常需要被授予較高系統(tǒng)權限,例如訪問本地文件系統(tǒng)、讀取環(huán)境變量、調(diào)用外部API以及安裝擴展插件等。如果默認配置缺乏必要的安全限制,攻擊者一旦利用漏洞突破防護,可能獲得系統(tǒng)的完全控制權,進而造成數(shù)據(jù)泄露或業(yè)務系統(tǒng)失控等嚴重后果。
360集團創(chuàng)始人周鴻祎在近期接受媒體采訪時也指出,OpenClaw等AI智能體雖然擁有較大的創(chuàng)新潛力,但目前仍處于發(fā)展初期階段,使用門檻較高、結(jié)果穩(wěn)定性不足,底層安全機制仍有待進一步完善。如果缺乏有效管控,讓智能體隨意與外部系統(tǒng)交互,或在公開環(huán)境中執(zhí)行復雜任務,可能導致用戶密碼、API密鑰等敏感信息被誘導泄露。此外,OpenClaw支持通過外部“技能包(Skill)”擴展能力,但部分技能來源復雜,如果缺乏審核機制,存在被植入惡意代碼的風險。周鴻祎形象地將AI智能體比作剛?cè)肼毜摹皩嵙暽?,既需要持續(xù)訓練,也必須建立嚴格的規(guī)則約束,并提醒用戶:“養(yǎng)龍蝦,需謹慎。”
針對這一新型安全挑戰(zhàn),三六零率先發(fā)布國內(nèi)首份《OpenClaw安全部署與實踐指南》,為政企機構和個人開發(fā)者提供系統(tǒng)化的安全參考。其中表示,AI智能體越接近“數(shù)字分身”,一旦被攻擊者控制,其潛在破壞力也越大,因此在部署初期建立安全機制尤為關鍵。
在《指南》中,三六零總結(jié)了當前AI智能體部署面臨的多類典型風險,包括公網(wǎng)管理接口暴露、API Key等身份憑證泄露、底層Shell工具調(diào)用越權、提示詞注入攻擊、記憶模塊被惡意投毒、第三方技能插件供應鏈風險以及多智能體協(xié)同失控等問題。其中,提示詞注入和插件供應鏈攻擊被認為是當前最容易被忽視卻危害較大的新型攻擊方式。一旦被利用,攻擊者可能誘導智能體執(zhí)行非預期指令,甚至長期操控其行為。
為了幫助企業(yè)團隊和OPC(一人公司)創(chuàng)業(yè)者在保障安全的前提下使用AI智能體,三六零在《指南》中提出“先可控、再提效”的原則。針對個人開發(fā)者和小型團隊,《指南》建議避免直接在本機高權限運行智能體,而是通過容器化技術構建隔離環(huán)境,并結(jié)合最小權限策略、密鑰加密注入和關鍵配置文件防篡改等措施,為OpenClaw搭建安全運行基礎,從而在不增加復雜度的情況下有效降低風險。
對于政企級多智能體協(xié)同應用場景,三六零提出基于零信任理念的整體安全架構:在系統(tǒng)邊界部署安全網(wǎng)關,對智能體所有出入流量進行統(tǒng)一控制并實施數(shù)據(jù)防泄漏檢測;在平臺內(nèi)部建立多租戶與RBAC細粒度權限管理機制,實現(xiàn)管理員、安全審計員、工具開發(fā)者和業(yè)務操作人員之間的權限分離;同時將智能體關鍵操作日志接入企業(yè)安全運營平臺,通過行為基線分析及時識別異常操作,實現(xiàn)對高風險行為的實時預警與攔截。
業(yè)內(nèi)專家認為,以OpenClaw為代表的AI智能體有望像當年的云計算一樣深刻改變各行業(yè)的生產(chǎn)方式,但安全能力必須同步建設。只有在部署初期建立完善的安全機制,才能避免在規(guī)?;瘧煤蟾冻龈叩娘L險成本。