近日,谷歌在开源人工智能领域迈出了重要一步,推出了名为Gemma的全新开源模型系列,这一举措标志着该公司在大模型领域的竞争中占据了一席之地。
Gemma模型以其轻量级和免费特性吸引了广泛关注,模型权重的开源以及对商业用途的开放,使得开发者能够更加便捷地访问和使用。此次发布的Gemma模型包括两个版本:Gemma 2B(20亿参数)和Gemma 7B(70亿参数),每个版本都提供了预训练和指令微调的选项。
用户可以通过Kaggle、谷歌的Colab Notebook或Google Cloud轻松访问Gemma模型。此外,Gemma模型也迅速上线了HuggingFace和HuggingChat平台,让每个人都能体验其生成能力。尽管Gemma模型的体量相对较小,但谷歌声称其在关键基准测试中已经超越了更大参数规模的模型,如Llama-2 7B和13B,以及Mistral 7B。
Gemma模型不仅能够在开发人员的个人电脑上运行,谷歌还提供了协作工具和负责任使用模型的指南。Keras的创始人François Chollet对Gemma的评价极高,认为它已经取代了最强开源大模型的位置。在HuggingFace的LLM leaderboard上,Gemma的2B和7B模型已经双双位居榜首。
谷歌表示,Gemma采用了与Gemini模型相同的研究和技术,但其开源策略与Gemini的封闭模式形成鲜明对比。尽管开发者可以在Gemini的基础上进行开发,但这种通过API或Vertex AI平台的开发方式被认为不够开放。与OpenAI的闭源路线相比,谷歌的这一策略并未展现出明显优势。
然而,通过Gemma的开源,谷歌有望吸引更多用户使用其AI模型,而不是转向Meta、Mistral等竞争对手。谷歌此次的开源行动可能是为了在Meta的Llama 3发布前抢占市场,因为之前有消息称Llama系列即将推出新版本。
尽管Gemma模型刚刚发布,但在X平台上已经有不少用户分享了他们的使用体验。一位用户反馈称,Gemma-7B的速度很快,输出稳定,表现优于Llama-2 13B。
谷歌还发布了一份详细的技术报告,介绍了Gemma的性能、数据集组成和建模方法。报告中提到,Gemma支持的词汇表大小达到了256K,这使得它在支持英语以外的其他语言方面表现出色。在18个基于文本的任务中,Gemma在11个任务上优于相似参数规模的开放模型,包括问答、常识推理、数学和科学、编码等领域。