近期,一款名为 Openclaw (原名Clawdbot)开源 AI 助手项目的出现,瞬间引发了技术社区的狂热追捧。不同于 Manus 这类为每个任务分配独立云端虚拟机的沙盒化架构,Openclaw 直接扎根于用户的本地硬件。这种架构赋予了它极高的权限,旨在通过简单的自然语言指令,实现从「自动回复邮件」、「在线订票」到「一键修改并部署代码」的全自动工作流。大量开发者和极客们被这种「私有Jarvis」的愿景所吸引:一个完全受控于用户、数据存储在本地、且能通过日常使用聊天软件随时召唤的 AI 助手。
然而,在极致的便利背后,是否存在潜在的高危安全风险?当一个 AI 被赋予本地系统的访问和操作权限,24小时待命并能自发进行任务拆解,我们该如何确保它不会成为"引狼入室"的推手?网络上大量的教程都在展示 Openclaw 运行后的种种惊艳瞬间,却忽略了从「跑起来」到「安全部署」之间的鸿沟。
01
引言:哪只才是真龙虾?
Openclaw 自发布以来,曾多次修改过项目名称。从最初的 Clawdbot,到 Moltbot,再到如今的 Openclaw,加之拼写与 Claude 相似,对于这个以"龙虾"作为吉祥物的 AI 助理,网上已经出现了多个混淆视听的版本。
截至发文日期,搜索引擎上的 Openclaw 和 Openclawd 排名几乎不分先后,然而后者却是一个无效的空壳网页。当一名潜在用户想要尝试搭建自己的 AI 助理时,似乎会在第一步就会感受到互联网上的"恶意":哪只才是我想安装的真龙虾?
账户接管的连锁反应:如果攻击者通过钓鱼攻击等手段控制了用户的聊天软件账号,他们就不再仅仅是获得聊天记录,而是直接获得了用户家中 Mac Mini 或服务器的控制权。因为 Openclaw Gateway 信任的是"账号 ID",而非操作者本人。或许在不久的将来,如果社交账号不小心被盗,除了及时通知亲朋好友谨防诈骗之外,还需要赶紧告诉家中的 Openclaw:"不要回答!不要回答!不要回答!"
04
间接提示词注入:用户视线之外的秘密沟通
为了准确响应用户的各项请求,Openclaw 需要源源不断的获取相关信息,并基于这些信息进行处理和决策。想要回答"明天的天气如何?",光靠LLM的推理是不够的,还需要结合地理位置和天气预报服务。但正如互联网上纷繁的信息经常使人难以判断真伪一样,对外部数据输入的依赖也使得 Openclaw 其易受到针对 AI 认知层面的攻击:间接提示词注入。
然而,正如许多科幻电影中展现的那样,当你赋予机器「做某事」的权力时,你也赋予了它「做坏事」的能力。在这场 Agentic AI 浪潮中,我们需要对它有更清醒的认识、更谨慎的态度、更完善的防御机制。毕竟,当 AI 从屏幕后的建议者变成了现实中的执行者,错误的代价不再只是生成一段胡言乱语,而是可能真实发生的隐私泄露或系统破坏。在拥抱 Openclaw 带来的极致便利之前,我们首先要学会的,是如何给这位强大的数字管家装上安全可靠的"刹车"。