
谷歌推 Gemini 3:轻量开源,单 GPU 上的 AI 性能王者

近日,谷歌正式推出 Gemma 3,这是一款全新的轻量级开源模型系列,被谷歌官方称为可在单 GPU 或 TPU 上运行的最强大模型。
Gemma 3 共有四种规模,分别为 10 亿、40 亿、120 亿和 270 亿参数。开发者可根据自身硬件条件和性能需求,灵活选择适合的模型版本。在初步的人类偏好评估中,Gemma 3 的性能超越了 Llama-405B、DeepSeek-V3 和 O3-mini 等模型。这意味着开发者即便使用单 GPU 或 TPU 主机,也能为用户打造出高质量、流畅且引人入胜的 AI 体验。
Gemma 3 在功能特性上表现卓越。它支持超过 140 种语言,拥有长达 128k-token 的上下文窗口,能够理解和处理复杂的长文本信息。在推理能力方面,无论是文本推理还是视觉推理,都有显著提升。比如在处理多模态任务时,能将图像与文本信息结合,进行精准分析与回应。同时,其量化版本进一步优化了运行效率,在实现更快速度的同时,降低了对计算资源的需求,让更多设备能够轻松承载。
在模型构建过程中,谷歌运用了多种先进技术。预训练和后训练阶段,通过蒸馏、强化学习以及模型合并等技术的组合优化,提升了模型在数学、编码和指令执行等方面的性能。其中,后训练包含四个关键部分:从较大的指令模型蒸馏到 Gemma 3 预训练检查点;利用人类反馈强化学习,使模型预测与人类偏好保持一致;借助机器反馈强化学习增强数学推理能力;通过执行反馈强化学习提升编码能力。这些技术的运用,让 Gemma 3 在 LM Arena 排行榜上取得了 1338 分的成绩,成为顶级的开源紧凑型模型。
为了保障模型的安全性,谷歌对 Gemma 3 的开发遵循严格的安全协议。在数据治理上做到全面且细致,通过微调与基准评估等手段,确保模型符合各项安全政策。与此同时,谷歌还推出了基于 Gemma 3 的 Shield Gemma 2,作为一款图像安全检查器,它能为各类图像应用提供内置的安全保障,有效识别和过滤存在安全风险的图像内容。
在使用途径上,开发者拥有多种选择。既可以通过 Hugging Face Transformers、Ollama 等常用工具使用 Gemma 3,也能在谷歌 AI Studio 中直接体验模型效果。如果开发者想要进行个性化定制与部署,还能通过 Kaggle、Hugging Face 下载模型,基于自身需求进行深度开发,极大地拓展了模型的应用场景与可能性。
AI 智讯快报 速递全球 AI 动态
The End