中国AI聊天机器人如何自我审查 - AI News
中国AI聊天机器人如何自我审查

中国AI聊天机器人如何自我审查

2026-02-26

新闻要点

近期,斯坦福大学与普林斯顿大学学者开展实验,向4个中国AI大模型和5个美国模型提出145个政治敏感问题并重复100次,发现中国模型对敏感问题的拒绝率显著高于美国模型(DeepSeek 36%、Ernie Bot 32% vs GPT/Llama低于3%),且手动干预对其审查行为的影响大于训练数据,该研究提供了可量化的AI偏见证据。

- 中国AI模型敏感问题拒绝率显著高于美国模型(最高36% vs <3%)

- 手动干预对中国模型审查影响大于训练数据

- 中国模型未拒绝时回答更短且信息不准确

- 研究提供可量化可复制的AI偏见证据