查看原文
其他

Gemma: 我们最先进的开放模型

The following article is from 谷歌黑板报 Author 谷歌黑板报


作者:

Jeanine Banks

Developer X 和开发者关系副总裁兼总经理

Tris Warkentin

Google DeepMind 总监


在 Google,我们致力于让 AI 助力每个人。长期以来,我们对开放社区的创新贡献了许多成果,如 Transformers、TensorFlow、BERT、T5、JAX、AlphaFold 和 AlphaCode。今天,我们很高兴地介绍 Google 的新一代开放模型,以协助开发者和研究人员负责任地构建 AI。



开放模型 Gemma


Gemma 是先进的轻量级开放模型系列,采用了与创建 Gemini 模型相同的研究和技术。受到 Gemini 的启发,Google DeepMind 和 Google 其他团队合作开发了 Gemma,并用拉丁语中意为 "宝石" 的 gemma 为其命名。在发布模型权重的同时,我们还推出了一系列工具,旨在支持开发者创新,促进合作,并指导如何负责任地使用 Gemma 模型。


从今天起,Gemma 在全球范围内开放使用。以下是有关该模型的关键细节:


  • 我们将发布两种权重规模的模型: Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。
  • 新的 Responsible Generative AI Toolkit 为使用 Gemma 创建更安全的 AI 应用程序提供指导和必备工具。
  • 我们通过原生 Keras 3.0 为所有主要框架 (JAX、PyTorch 和 TensorFlow) 提供推理和监督微调 (SFT) 的工具链。

  • 上手即用 Colab 和 Kaggle notebooks,以及与 Hugging Face、MaxText 和 NVIDIA NeMo 等受欢迎的工具集成,让开始使用 Gemma 变得简单容易。
  • 经过预训练和指令微调的 Gemma 模型可以在您的笔记本电脑、工作站或 Google Cloud 上运行,并可轻松部署在 Vertex AI 和 Google Kubernetes Engine (GKE) 上。

  • 基于多个 AI 硬件平台进行优化,确保业界领先的性能表现,其中包括 NVIDIA GPUs 和 Google Cloud TPUs。
  • 使用条款允许所有组织 (无论规模大小) 负责任地进行商用和分发。




同等规模最领先的性能


Gemma 模型与我们规模最大、能力最强的 AI 模型 Gemini 共享技术和基础架构。这使得 Gemma 2B 和 7B 与其他开放模型相比,展现出同等规模最先进的性能。同时,Gemma 可以直接在开发者的笔记本电脑或台式机上运行。值得注意的是,Gemma 在关键基准测试集上大大超过了更大的模型,同时还严格遵守了我们对安全和负责任输出的标准。有关性能、数据集对比和建模方法的详细信息,请参见技术报告。




负责任的设计


Gemma 在设计时将我们的 AI 原则放在首位。为了使 Gemma 预训练模型安全可靠,我们使用自动技术,从训练集中过滤掉特定的个人信息及其他敏感数据。此外,我们进行了大量的微调和人类反馈强化学习 (RLHF),使我们的指令微调模型与负责任的行为保持一致。为了解并降低 Gemma 模型带来的风险,我们进行了强有力的评估,包括手工红队测试、自动对抗性测试,以及对危险活动的模型能力评估。我们在 Model Card 中阐述了这些评估。


我们与 Gemma 一道发布了新的 Responsible Generative AI Toolkit,帮助开发者和研究人员优先构建安全和负责任的 AI 应用。这些工具包括:


  • 安全分类: 我们提供了一种新的方法,可利用最少的样品来构建稳定的安全分类器。

  • 调试工具: 模型式调式工具帮助你了解 Gemma 的行为,并解决潜在的问题。
  • 应用指南: 你可以根据 Google 在开发和部署大型语言模型方面的经验,获取模型构建者的最佳实践。




跨框架、工具和硬件的优化


您可以基于自己的数据微调 Gemma 模型以适应特定应用需求,例如摘要或检索增强生成 (RAG)。Gemma 可支持多种工具和系统:


  • 多框架工具: Gemma 提供 Keras 3.0、原生 PyTorch、JAX 和 Hugging Face Transformers 多个框架的参考实现,您可以选择熟悉的框架进行推理和微调。

  • 跨设备兼容: Gemma 模型可以在笔记本电脑、台式机、物联网、移动设备和云端等多个主流设备类型上运行,支持广泛的 AI 功能。

  • 前沿的硬件平台: 我们与 NVIDIA 合作,使用 NVIDIA GPU 来优化 Gemma 模型,确保业界领先的性能与前沿技术的整合应用。

  • 基于 Google Cloud 的优化: Vertex AI 提供广泛的 MLOps 工具集,其中包含一系列微调选项和内置推理优化的一键部署功能。您可以使用完全托管的 Vertex AI 工具或自行管理的 GKE 来进行高级定制,以经济高效的方式自行选择部署在 GPU、TPU 或 CPU 基础设施上。




免费的积分来进行研究和开发


Gemma 为开放社区构建,旨在推动开发者和研究人员的 AI 创新。您可以通过 Kaggle 的免费访问权限、Colab notebooks 免费层、以及 Google Cloud 新用户可获得的 300 美元积分立即开始使用 Gemma。研究人员还可以申请高达 50 万美元的 Google Cloud 积分以加速他们的项目。



入门指南


您可以在 ai.google.dev/gemma 了解更多关于 Gemma 的信息并访问快速入门指南。


随着 Gemma 模型系列的不断扩展,我们期待看到基于 Gemma 的多元化应用出现。敬请关注未来几周的活动和机会,与我们进行交流、学习并使用 Gemma  进行开发构建。


我们很期待看到您的创新!





继续滑动看下一个
谷歌开发者
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存