主要内容
上月,多家科技公司紧急禁止员工使用开源AI工具OpenClaw(原名为MoltBot),因该工具被指存在安全风险。Massive联合创始人兼CEO Jason Grad向员工发出警告称,该工具未经安全验证,可能导致隐私泄露,要求禁止在公司设备使用,其政策遵循“先缓解风险,后调查问题”原则。Meta一名高管也要求团队禁用该工具,否则可能被解雇。
OpenClaw由Peter Steinberger去年11月推出,作为免费开源工具。上月因其他开发者贡献功能并在社交媒体分享使用经验,其热度迅速攀升。目前该工具已被ChatGPT开发商OpenAI收购,OpenAI承诺继续保持开源并通过基金会支持。
OpenClaw需基础软件工程知识安装,安装后可自主控制电脑,协助文件整理、网络调研、在线购物等任务。安全专家指出,该工具存在控制权限滥用风险,呼吁企业严格管控使用。
Valere公司则采取折中策略:禁止员工在新设备使用,但允许研究团队在旧电脑测试以找出漏洞。该公司为约翰·霍普金斯大学等机构开发软件,其研究团队建议限制指令输入权限,并通过密码保护控制面板防止非法访问。
“遇到潜在风险工具时,先缓解再调查是我们的原则。” Grad表示,OpenClaw的快速流行及企业反应,反映出科技界对新兴AI工具安全优先级的重视。