Meta及其他科技公司因安全担忧对OpenClaw的使用施加限制 - AI News
Meta及其他科技公司因安全担忧对OpenClaw的使用施加限制

Meta及其他科技公司因安全担忧对OpenClaw的使用施加限制

2026-02-17

新闻要点

Meta 及多家科技公司因安全担忧对实验性 AI 工具 OpenClaw 实施使用限制。该工具可自主控制电脑执行任务,虽已被 OpenAI 收购并计划通过基金会支持开源,但企业如 Massive、Valere 采取“先缓解再调查”策略,部分仅允许在隔离设备测试以规避隐私泄露等风险。

- Meta 等公司限制 OpenClaw 使用(安全担忧)

- OpenClaw 被 OpenAI 收购,将通过基金会支持开源

- 企业采取“先缓解再调查”策略(如 Massive 提前警告)

- Valere 允许隔离设备测试并提出安全改进建议

- 安全专家呼吁严格控制 OpenClaw 职场使用

主要内容

上月,多家科技公司紧急禁止员工使用开源AI工具OpenClaw(原名为MoltBot),因该工具被指存在安全风险。Massive联合创始人兼CEO Jason Grad向员工发出警告称,该工具未经安全验证,可能导致隐私泄露,要求禁止在公司设备使用,其政策遵循“先缓解风险,后调查问题”原则。Meta一名高管也要求团队禁用该工具,否则可能被解雇。

OpenClaw由Peter Steinberger去年11月推出,作为免费开源工具。上月因其他开发者贡献功能并在社交媒体分享使用经验,其热度迅速攀升。目前该工具已被ChatGPT开发商OpenAI收购,OpenAI承诺继续保持开源并通过基金会支持。

OpenClaw需基础软件工程知识安装,安装后可自主控制电脑,协助文件整理、网络调研、在线购物等任务。安全专家指出,该工具存在控制权限滥用风险,呼吁企业严格管控使用。

Valere公司则采取折中策略:禁止员工在新设备使用,但允许研究团队在旧电脑测试以找出漏洞。该公司为约翰·霍普金斯大学等机构开发软件,其研究团队建议限制指令输入权限,并通过密码保护控制面板防止非法访问。

“遇到潜在风险工具时,先缓解再调查是我们的原则。” Grad表示,OpenClaw的快速流行及企业反应,反映出科技界对新兴AI工具安全优先级的重视。