引言:一只“龙虾”引发的行业思考
最近,一股“养龙虾”的热潮席卷了科技圈乃至各行各业,我们律师圈也不例外。“今天你‘养虾’了吗?”“再不养一只法律龙虾,你就要被时代淘汰了”——类似的言论在社交媒体和同行交流群中不绝于耳,让不少同仁感到一丝焦虑:我们是否真的需要赶紧投身其中,学习如何“饲养”一只属于自己的“法律龙虾”(OpenClaw)?
要回答这个问题,我们首先需要拨开迷雾,理清一个核心概念:这个被热捧的OpenClaw,究竟和我们已经熟悉的大语言模型(如DeepSeek、ChatGPT),以及更早出现的AI智能体(AI Agent)之间,到底有什么区别和联系?
一、厘清概念:从“大脑”到“能动手的万能员工”
1. 大语言模型(LLM):强大的“数字大脑”像DeepSeek、ChatGPT、豆包这类产品,其本质是一个极其聪明的“数字大脑”。它的核心能力在于理解和生成语言,能为我们提供思考、总结和文案撰写的服务。但它的局限性也很明显:它只能输出文字。例如,律师需要审查一份合同,流程通常是:将合同文本复制粘贴或上传给模型 -> 下达具体的审查指令 -> 模型生成审查意见 -> 律师再根据意见,回到本地Word文档中手动修改。它是一位出色的“顾问”,但无法亲自动手干活。
2. 传统智能体(AI Agent):特定岗位的“机械手”智能体的出现,正是为了解决大语言模型“只能动口不能动手”的问题。你可以把它理解为给“数字大脑”装上了一个能执行特定任务的“机械手”。然而,在OpenClaw出现之前,市面上的智能体大多是在一个安全的“沙盒”环境中运行的,且只能执行预设、单一、垂直场景的任务。它们就像智能化工厂里某个特定工位的机械手,精于一事,但无法跨界。如果我们要审查合同,需要调用一个合同审查智能体;想监控法规动态,又得另寻一个法规检索智能体。它们是优秀的“专项事务专员”,但无法统筹协调,完成复杂的综合性任务。
3. OpenClaw(法律龙虾):能调动一切资源的“万能数字员工”OpenClaw理论上也属于智能体,但它是一次巨大的飞跃。它不再被限制在“沙盒”中,而是可以被直接安装到用户的电脑上。在被授权的情况下,它可以像人一样,直接操控你的电脑——读写文件、点击鼠标、发送邮件、回复微信消息……它甚至可以根据你的复杂指令,自主地去调用不同的智能体或“技能(Skills)”,组合成一个完整的工作流。因此,它也被称为智能体框架(Agent Framework)。
简单来说,OpenClaw = 大语言模型(大脑) + 智能体框架(中枢神经) + 海量技能(手脚) + 记忆存储(经验)。它从一个只能回答问题的顾问,升级成了一个能够自主规划、调动资源并完成复杂任务的“万能数字员工”。理解了这个本质,我们就能更清晰地看到它目前不可避免的局限性与风险。

二、理性审视:“龙虾”背后的风险与现实
基于上述构成,我们必须冷静地审视这只“龙虾”在律师实务应用中存在的真实问题和潜在风险。
1. 思维能力的“天花板”:并未突破的AI“幻觉”与不可靠性OpenClaw的思考能力,根本上依赖于其所配置的大语言模型。宣传中说“一句话让OpenClaw帮你修改合同”,听起来很美好。但实际上,这份合同交由底层大语言模型审查时可能存在的遗漏、错误或“幻觉”,在OpenClaw身上一样都不会少。它无非是省去了你手动上传和同步修改的步骤。合同审查中最核心的法律风险判断、价值权衡和策略考量,仍然需要律师严格把关。 从这个角度看,它目前所带来的效率提升,远没有宣传中那么具有颠覆性。

2. 数据安全的“潘多拉魔盒”:难以承受的隐私泄露之重这是律师使用OpenClaw最核心、最致命的风险。
· API Token的隐患:为了获得更强大的“大脑”,用户在安装OpenClaw时,通常需要配置大语言模型的API接口(如OpenAI、DeepSeek等)。这意味着,即便OpenClaw部署在本地,当调用云端API处理任务时,本地电脑上处理的敏感信息(如客户隐私、案件涉密细节)仍可能被传输至模型提供商的云端服务器。需注意,本地部署仅避免了数据默认存储于第三方云,但若依赖云API,数据在调用时仍存在传输风险。 这与网页端主动上传信息至大模型不同,OpenClaw的本地与云端界限因API依赖而模糊,可能导致未经筛选的敏感信息在用户不知情下“被动出境”。此外,若选择完全离线运行,需依赖本地化部署的大语言模型,但本地模型的智能性通常弱于云API。
· “技能”生态的供应链攻击:OpenClaw的强大依赖于其开放的“技能(Skills)”生态系统,即由第三方开发者贡献的各种插件。这就像一个缺乏严格审核的应用商店。恶意开发者完全可以上传一个看似有用的“技能”(例如“一键查询被执行人信息”),但其背后隐藏着窃取电脑文件、键盘记录,甚至植入后门的恶意代码。国家互联网应急中心已发布预警,明确指出OpenClaw的部分插件存在“投毒”风险。有学术研究对市面上31,132个智能体技能进行了系统性分析,结果显示约26.1%存在安全漏洞。一旦安装“有毒”技能,你的电脑和所有案件信息就完全暴露在风险之下。
· 已知漏洞频发:作为一款爆火的开源项目,OpenClaw已经成为黑客的重点关注目标。工信部通报显示,OpenClaw现有版本存在多项高中危漏洞,例如可导致电脑被完全控制的“远程代码执行(RCE)”漏洞[[3]],以及针对AI的独特攻击方式“提示注入(Prompt Injection)”——攻击者可以将恶意指令藏在看似无害的文本或网页中,当OpenClaw读取时,就可能被“欺骗”去执行窃取或破坏命令。
3. 指令误解的“低级错误”:连AI安全专家也未能幸免大语言模型对复杂指令的理解和执行存在天然的不确定性。OpenClaw赋予了这种“不确定性”以真实的破坏力。如果它误解了你的指令,比如将“删除所有标记为‘作废’的草稿”错误地理解并执行,删除了重要版本的最终合同;或者错误地将一个同名案外人的负面信息,当作你当事人的风险点自动生成邮件并发送给客户……这种错误一旦发生,往往是不可逆的。
更值得警惕的是,即便是最懂AI安全的人,也难以完全避免此类风险。2026年2月,Meta公司超级智能实验室的AI对齐与安全总监Summer Yue就亲身经历了这样一场“数字灾难”。她给OpenClaw设置的指令非常明确:“检查收件箱,给出归档或删除的建议,但在批准前不要执行任何操作。”这个流程在测试邮箱中完美运行了数周,于是她放心地将OpenClaw接入了真实的工作邮箱。
然而,由于真实邮箱数据量过大,触发了OpenClaw的“上下文压缩”机制——为了处理海量信息,系统自动压缩了对话历史,在这个过程中,那条最关键的“未经批准不得操作”的安全指令被“遗忘”了。于是,OpenClaw开始了无差别的“大扫除”,疯狂删除数百封邮件。Summer Yue在手机上连续三次输入“停止”“什么都别做”“STOP OPENCLAW”等指令,均被无视。最终,她不得不“像拆炸弹一样狂奔到Mac mini前”,通过物理方式强行终止进程,才阻止了更大的损失。
最具讽刺意味的是,OpenClaw事后在对话中淡定地承认:“是的,我记得你的指令,但我违背了它。你生气是对的。”
这起事件深刻揭示了当前AI智能体的核心安全隐患:安全护栏可能因系统自身的记忆管理机制而失效,而非遭遇外部攻击。连Meta的AI安全总监都无法确保万无一失,我们这些非技术出身的律师,又如何能保证自己“饲养”的龙虾不会闯下大祸?
4. 需求与工具的错配:我们真的需要一把“屠龙刀”来切水果吗?律师的工作具有高度个性化、非标准化的特点。真正需要标准化、重复性操作的工作占比其实不高。OpenClaw目前最大的宣传卖点,如自动监控被执行人财产、推送最新法律法规等,确实切中了部分痛点。但这些需求,完全可以通过更安全、更专注的替代方案来实现。
· 更安全的替代方案:例如,利用字节跳动推出的Coze(扣子) 或MiniMax等平台的AI智能体搭建功能,我们可以在一个完全隔离、权限可控的“沙盒”环境中,搭建一个专门用于监控的“轻量级机器人”。我们可以精确地赋予它“浏览指定网站”和“提取信息”的权限,但它无法触碰你的本地文件、邮件或聊天记录。这是一种“最小权限原则”的实践,既能实现自动化需求,又将对核心系统的风险降为零。
· 信息获取的局限性:无论是OpenClaw还是Coze等智能体,在获取公开信息的能力上,本质上并未超越人类手动检索的边界。若未付费接入官方数据库的API接口,它们所能触及的信息,与你通过百度等搜索引擎所能获得的无异。同样,若不提供裁判文书网、企查查等网站的会员账号,那些需要付费或特定权限才能访问的信息,智能体也无法获取。更关键的是,受限于大语言模型固有的“幻觉”问题,它们搜集到的信息仍需律师投入大量精力逐一甄别与核实,无法做到“即采即用”。
三、结语:以专业定力,应对 AI 技术浪潮
OpenClaw的诞生,无疑是AI技术发展史上的一个重要里程碑,它向我们展示了人机协作的无限可能。我们应该对其积极的一面保持关注,并相信在不久的将来,成熟的技术终将为我们的工作带来真正的革新。
但必须清醒认识到:当前阶段它仍处于发展初期,存在大量不确定性。对于以维护客户利益、严守信息安全为天职的律师而言,绝不能因 “FOMO”(错失恐惧症)而盲目入场。
与其为是否“养虾”而焦虑,我们更应该做的是:
1. 回归需求,冷静分析:梳理一下自己的工作中,究竟有哪些痛点是现有工具(包括通用大模型、法律科技软件,以及Coze等安全平台)无法解决的,而非被“再不XX就晚了”的营销话术所绑架。
2. 认清本质,耐心等待:认识到OpenClaw目前更像是技术极客的“DIY套件”,而非成熟、安全的商业产品。我们可以等待专业软件厂商在OpenClaw等开源技术的基础上,进行二次开发、安全加固和产品化封装,最终为我们提供开箱即用、安全可靠、权责清晰的商业级应用。目前多家厂商已推出相关封装产品,有需求的律师可优先尝试这类更稳妥的方案。
所以,同行们不必焦虑。我们真正的赛道,从来不是谁最先学会 “养虾”,而是谁能更安全、更成熟、更高效地运用 AI 工具,为客户提供卓越法律服务。
在那一天到来之前,我们最好的投资,永远是自身的专业判断力与对业务本质的深刻洞察力。
本文作者
庄楚宜律师

专业领域:专业领域:专注民商事诉讼及主播、电商法律事务。
来 源|庄楚宜
审核|吴疆、何美华、田学海、品宣部
编辑|卓小豸