随着OpenAI、Google和Anthropic推出竞争性医疗健康工具,人工智能医疗诊断竞赛加剧 - AI News
随着OpenAI、Google和Anthropic推出竞争性医疗健康工具,人工智能医疗诊断竞赛加剧

随着OpenAI、Google和Anthropic推出竞争性医疗健康工具,人工智能医疗诊断竞赛加剧

2026-01-15

新闻要点

本月内,OpenAI、Google、Anthropic相继推出医疗AI工具(ChatGPT Health、MedGemma 1.5、Claude for Healthcare),竞争加剧,但均未获临床诊断或治疗批准。三者均采用医疗微调的多模态大模型,强调支持而非替代临床判断,部署模式各异(消费端、开放模型、企业端),基准表现提升显著但临床验证缺口仍大。

- 三家本月密集发布医疗AI工具,行业竞争加剧

- 所有工具均声明不用于直接临床诊断或治疗

- 部署模式差异:消费端/开放模型/企业端定向

- MedGemma 1.5在MedAgentBench达92.3%准确率

- 均未获医疗设备认证或临床使用批准

主要内容

OpenAI、Google和Anthropic本月内相继宣布推出医疗AI专项能力,这一密集发布体现了行业竞争压力而非巧合。值得注意的是,尽管宣传中强调医疗变革,三家公司的产品均未获得医疗设备认证,无法直接用于患者诊断。

OpenAI于1月7日推出ChatGPT Health,允许美国用户通过与b.well、Apple Health等合作连接医疗记录,仅对ChatGPT Free、Plus及Pro订阅用户开放(排除欧盟、瑞士和英国)。Google 1月13日发布MedGemma 1.5,作为开放模型通过健康AI开发者基础项目提供,可从Hugging Face下载或在Google Cloud Vertex AI部署。Anthropic 1月11日推出Claude for Healthcare,通过企业级Claude集成现有工作流,面向机构客户。

技术架构高度相似:均采用多模态大语言模型,基于医疗文献和临床数据集微调,强调隐私保护与监管免责声明,定位为辅助而非替代临床判断。差异主要在部署模式:OpenAI面向消费者,Google开放模型,Anthropic侧重企业级服务。

三家公司监管立场一致:OpenAI明确ChatGPT Health“不用于诊断或治疗”,Google称MedGemma是“开发者评估医疗用例的起点”,Anthropic强调输出“不直接用于临床诊断”。

基准测试显示性能提升:Google MedGemma 1.5在MedAgentBench任务中准确率达92.3%,较Sonnet 3.5提升14个百分点;Anthropic Claude Opus 4.5在MedCalc医学计算中达61.3%,MedAgentBench为92.3%。OpenAI未公布具体基准,但称全球每周超2.3亿用户使用ChatGPT咨询健康问题。

医疗AI监管路径仍不明确,技术突破与临床应用间的鸿沟待填。