近期,斯坦福大学与普林斯顿大学学者开展实验,向4个中国AI大模型和5个美国模型提出145个政治敏感问题并重复100次,发现中国模型对敏感问题的拒绝率显著高于美国模型(DeepSeek 36%、Ernie Bot 32% vs GPT/Llama低于3%),且手动干预对其审查行为的影响大于训练数据,该研究提供了可量化的AI偏见证据。
- 中国AI模型敏感问题拒绝率显著高于美国模型(最高36% vs <3%)
- 手动干预对中国模型审查影响大于训练数据
- 中国模型未拒绝时回答更短且信息不准确
- 研究提供可量化可复制的AI偏见证据
© , Mergeek 京ICP备2021030996号 《隐私政策》