主要内容
Anthropic 准备将用户与 Claude 聊天机器人的对话重新用作其大型语言模型的训练数据,除非这些用户选择退出。此前,该公司并未在用户聊天上训练其生成式 AI 模型。10 月 8 日 Anthropic 的隐私政策更新开始允许这样做时,用户将必须选择退出,否则他们的新聊天记录和编码任务将被用于训练未来的 Anthropic 模型。为何改变?Anthropic 的一篇博客解释了公司做出此政策变更的原因,其中部分内容写道:“所有大型语言模型,如 Claude,都使用大量数据进行训练。来自现实世界交互的数据为哪些响应对用户最有用和最准确提供了有价值的见解。”随着更多用户数据被投入到大型语言模型中,Anthropic 的开发者希望随着时间的推移能制作出更好版本的聊天机器人。该变更原定于 9 月 28 日进行,后被推迟。Anthropic 的发言人 Gabby Curtis 在给《连线》的一封电子邮件中写道:“我们希望给用户更多时间来审查这一选择,并确保我们有一个平稳的技术过渡。”新用户在注册过程中被要求就其聊天数据做出决定。现有的 Claude 用户可能已经遇到了一个弹出窗口,介绍了 Anthropic 条款的变更。它写道:“允许使用你的聊天和编码会话来训练和改进 Anthropic AI 模型。”将你的数据提供给 Anthropic 以训练 Claude 的切换开关自动打开,因此选择接受更新而未点击该切换开关的用户被纳入新的训练政策。所有用户都可以在隐私设置下打开或关闭对话训练。在标有“帮助改进 Claude”的设置下,如果您不想让您的 Claude 聊天训练 Anthropic 的新模型,请确保开关关闭并向左。如果用户未选择退出模型训练,那么变更后的训练政策将涵盖所有新的和重新访问的聊天。这意味着 Anthropic 不会自动在您的整个聊天历史上训练其下一个模型,除非您返回存档并重新启动一个旧线程。交互后,该旧聊天现在将重新打开,并可用于未来的训练。新的隐私政策还伴随着 Anthropic 数据保留政策的扩展。在大多数情况下,Anthropic 将保留用户数据的时间从 30 天增加到更广泛的五年,无论用户是否允许在其对话上进行模型训练。Anthropic 的条款变更适用于商业级用户,包括免费和付费用户。商业用户,如通过政府或教育计划获得许可的用户,不受此变更影响,这些用户的对话不会被用作公司模型训练的一部分。Claude 是一些软件开发人员的喜爱的 AI 工具,他们利用其作为编码助手的能力。由于隐私政策更新包括编码项目和聊天记录,Anthropic 通过此变更可以收集大量编码信息用于训练目的。在 Anthropic 更新其隐私政策之前,Claude 是唯一不会自动将对话用于大型语言模型训练的主要聊天机器人之一。相比之下,OpenAI 的 ChatGPT 和 Google 的 Gemini 对于个人账户的默认设置都包括模型训练的可能性,除非用户选择退出。查看《连线》关于 AI 训练退出的完整指南,了解更多可以要求生成式 AI 不使用用户数据进行训练的服务。虽然选择退出数据训练对个人隐私是一个好处,尤其是在处理聊天机器人对话或其他一对一交互时,但值得记住的是,您在网上公开发布的任何内容,从社交媒体帖子到餐厅评论,都可能被一些初创公司作为其下一个大型 AI 模型的训练材料。