Google DeepMind人工智能研究团队今日发布全新开源AI模型Gemma 3 270M。
正如其名,这是一个2.7亿参数规模的模型——远小于当前前沿大语言模型动辄700亿以上的参数量(参数指决定模型行为的内部变量数)。
虽然更多参数通常意味着更强大的模型能力,但谷歌此次反其道而行之:追求极致高效,为开发者提供能直接在智能手机本地运行、无需联网的微型模型,这一点已在Pixel 9 Pro芯片组内部测试中得到验证。
尽管如此,该模型仍能处理复杂垂直领域任务,并可在几分钟内快速微调以满足企业或独立开发者的需求。
谷歌DeepMind AI开发者关系工程师Omar Sanseviero在社交平台X补充道,Gemma 3 270M还能直接在网页浏览器、树莓派甚至"烤面包机"上运行,彰显其超轻量化硬件适配能力。
模型由1.7亿嵌入参数(依托256k超大词表处理生僻术语)与1亿Transformer块参数构成。
谷歌表示,这种架构在开箱即用的指令跟随任务中表现优异,同时保持足够小的体积以便在移动设备等资源受限环境中快速微调部署。
Gemma 3 270M继承了大尺寸Gemma 3模型的架构与预训练方式,确保Gemma生态兼容性。开发者可通过Hugging Face、UnSloth和JAX等平台获取文档、微调方案及部署指南,实现快速落地。
同类尺寸标杆性能,极致能效表现
在衡量指令遵循能力的IFEval基准测试中,经指令优化的Gemma 3 270M获得51.2%的分数。
谷歌公布的对比数据显示,其成绩远超SmolLM2 135M Instruct和Qwen 2.5 0.5B Instruct等微型模型,甚至接近某些十亿参数级模型的表现区间。
不过正如竞品Liquid AI的研究人员在X平台指出的,谷歌未提及后者今年7月发布的LFM2-350M模型——该模型在相近参数规模下取得65.12%的惊人成绩。
核心优势在于能效表现:Pixel 9 Pro芯片组上使用INT4量化模型时,25轮对话仅耗电0.75%。
这使得Gemma 3 270M成为注重隐私与离线功能的设备端AI理想选择。
本次发布包含预训练版和指令优化版模型,开发者可立即用于通用指令任务。量化感知训练(QAT)检查点也同步开放,支持INT4精度下最小化性能损失,让模型轻松适配资源受限场景。
微调版Gemma 3 270M可实现大模型多项功能
谷歌强调Gemma 3 270M体现"工具适配场景"理念,而非盲目追求参数量级。
在情感分析、实体提取、查询路由、结构化文本生成、合规审查及创意写作等场景,经微调的小模型比通用大模型更快速、经济。
此前的SK Telecom多语言内容审核案例中,基于Gemma 3 4B的定制模型就超越了更大体量的商业系统。Gemma 3 270M旨在将这种成功复制到更小规模,支持构建针对单一任务的微型模型集群。
睡前故事生成器Demo展示模型潜力
除企业应用外,模型同样适配创意场景。YouTube演示视频中,完全在浏览器离线运行的睡前故事生成器应用(基于Gemma 3 270M+Transformers.js)展现了轻量化落地的可能性。
用户可设定主角(如"魔法猫")、场景("魔法森林")、转折("发现秘密门")、主题("冒险")和篇幅,模型随即生成连贯的创意故事,展示情境感知文本生成能力。
这个Demo有力证明了轻量级Gemma 3 270M如何在不依赖云端的情况下,驱动快速、互动性强的应用,为设备端AI体验开辟新可能。
采用Gemma定制许可开源
模型基于Gemma使用条款发布,允许在满足条件时使用、修改和分发。条件包括遵守谷歌禁止使用政策、向下游传递许可条款、明确标注修改内容。分发形式可以是直接传播或通过API/网页应用等托管服务。
商业团队可将模型嵌入产品、部署为云服务或开发衍生模型,谷歌不主张模型生成内容的权利。虽非传统开源许可,但允许无附加费用的商业使用,主要约束在于终端用户需遵守相同限制,并落实安全措施。
随着Gemma生态下载量突破2亿次,覆盖云/桌面/移动全场景,谷歌正将Gemma 3 270M定位为构建高效、经济、隐私优先AI解决方案的基石——开局表现已然亮眼。