主要内容
2025 年,生成式 AI 进入更成熟阶段。模型在准确性和效率方面不断优化,企业将其嵌入日常工作流程。重点从这些系统能做什么转向如何可靠且大规模应用。逐渐清晰的是,构建不仅强大且可靠的生成式 AI 所需的要素。
新一代大语言模型正在摆脱资源消耗巨头的名声。过去两年,生成一个响应的成本下降了 1000 倍,与基本网络搜索成本相当。这一转变使实时 AI 更适用于日常业务任务。
规模与控制也是今年的重点。领先模型(Claude Sonnet 4、Gemini Flash 2.5、Grok 4、DeepSeek V3)仍很大,但设计得响应更快、推理更清晰、运行更高效。仅规模已不再是区分因素,关键在于模型能否处理复杂输入、支持集成并提供可靠输出,即使复杂度增加。
去年,AI 易产生幻觉受到很多批评。在一个知名案例中,一名纽约律师因引用 ChatGPT 编造的法律案例而受到制裁。敏感领域的类似失败将该问题推至焦点。这是 LLM 公司今年一直在应对的。检索增强生成(RAG)已成为常见方法,将搜索与生成结合以基于真实数据生成输出,有助于减少幻觉但不能消除。新的基准如 RGB 和 RAGTruth 用于跟踪和量化这些失败,标志着将幻觉视为可测量的工程问题而非可接受的缺陷的转变。
2025 年的一个显著趋势是变化速度。模型发布加速,能力每月变化,何为最先进技术不断被重新定义。对于企业领导者,这造成知识差距,快速转化为竞争差距。保持领先意味着保持信息灵通,如欧洲 AI 和大数据博览会等活动提供了通过实际演示、直接对话和构建及大规模部署这些系统的人的见解来了解技术走向的机会。
2025 年的转变是向自主性。许多公司已在核心系统中使用生成式 AI,但现在重点是代理式 AI,这些模型旨在采取行动而非仅生成内容。据最近调查,78%的高管同意未来 3 至 5 年,数字生态系统需要为 AI 代理和人类构建。这一预期影响着平台的设计和部署,AI 被整合为操作员,能够触发工作流程、与软件交互并以最少人工输入处理任务。
生成式 AI 进步的最大障碍之一是数据。传统上,训练大型模型依赖从互联网抓取大量真实文本,但 2025 年这一来源将枯竭,高质量、多样且符合道德规范的数据更难找到且处理更昂贵。这就是合成数据成为战略资产的原因。合成数据由模型生成以模拟真实模式,而非从网络获取。直到最近,还不清楚合成数据能否支持大规模训练,但微软 SynthLLM 项目的研究已证实其可以(如果使用正确)。他们的发现表明合成数据集可针对可预测性能进行调整,关键是他们还发现更大的模型需要更少的数据就能有效学习,使团队能够选择。