Anthropic的Daniela Amodei认为市场会奖励安全的AI - AI News
Anthropic的Daniela Amodei认为市场会奖励安全的AI

Anthropic的Daniela Amodei认为市场会奖励安全的AI

2025-12-04

新闻要点

Anthropic总裁兼联合创始人Daniela Amodei于周四在WIRED的Big Interview活动上表示,市场将奖励安全AI,公司对AI风险的重视正让行业更强大。她提到客户需可靠安全的AI产品,公司采用宪法AI训练模型,安全承诺助其保留人才,员工数从200增至2000+,且业务未现放缓迹象。

- 安全AI价值:市场奖励安全AI,客户需可靠安全产品

- 宪法AI:用伦理原则(如联合国人权宣言)训练模型

- 人才增长:Anthropic员工数从200增至2000+

- 业务趋势:模型智能与收入按缩放定律曲线增长

- 行业状态:未发现公司或行业增长放缓迹象

主要内容

特朗普政府或认为监管会阻碍AI行业发展,但行业巨头之一Anthropic的观点截然相反。该公司总裁兼联合创始人Daniela Amodei在WIRED活动中表示,尽管特朗普政府负责AI事务的David Sacks称其“以制造恐慌推行监管捕获”,但主动披露AI潜在风险反而能让行业更强大。

“我们从一开始就直言AI潜力巨大,但要实现潜力,必须管控风险,让安全成为行业基础。”Amodei强调。超30万初创企业、开发者及公司使用Anthropic的Claude模型,客户既希望AI能力出众,也重视其可靠性与安全性——正如车企公布碰撞测试结果以证明安全改进,而非追求“不安全产品”。这种认知推动市场形成自我调节,Anthropic通过产品设定了行业最低安全标准。

Anthropic推行“宪法AI”,以联合国《世界人权宣言》等伦理原则为基础训练模型,使大语言模型能基于整体伦理而非简单的“对错”回应问题。这一理念吸引了大量人才,公司规模从200人扩张至超2000人。

员工称,公司“诚实面对AI利弊、助力改进问题”的使命价值观让他们觉得真诚可信。Amodei表示,尽管行业存在泡沫担忧,但模型正按“缩放定律”持续进步,收入曲线同步增长,“需保持自我认知与谦逊”。