Google 近日宣布推出 Gemma,这是先进的轻量级开放模型系列,采用了与创建 Gemini 模型相同的研究和技术。 我们也很高兴地宣布,Google Cloud 客户现在可以在 Vertex AI 开始使用 Gemma 模型进行自定义与构建,并在 Google Kubernetes Engine (GKE) 中运行。 Gemma 的发布和我们更新的平台功能,展现了我们致力于让 AI 对于 Google Cloud 上的开发人员更加开放、更易于使用的承诺。
Gemma 现已在 Google Cloud 上推出
Gemma 模型采用与功能强大的 Gemini 模型相同的技术和基础架构。这使得 Gemma 模型与其他同等规模的开放模型相比,有着领先的性能。我们目前推出两种权重规模的模型:Gemma 2B 和 Gemma 7B。两种规模都经过了预训练和指令微调,以支持研究与开发。
Gemma 支持当今 Google Cloud 开发人员爱用的工具,包括 Colab 和 Kaggle Notebooks,以及 JAX、PyTorch、 Keras 3.0 和 Hugging Face Transformers 等框架。 Gemma 模型可以在笔记本电脑、工作站或 Google Cloud 上运行。借助这些全新的开放模型,开发人员现在可以在 Vertex AI 中进行构建和自定义,并在 GKE 上运行。为了发挥业界领先的性能表现,Google 与 NVIDIA 合作,使用 NVIDIA GPU 来优化 Gemma 模型的性能。
在 Vertex AI 释放 Gemma 的强大功能
Gemma 加入了 Vertex AI Model Garden 中的 130 多个模型,包括最近宣布的各种 Gemini 模型 :Gemini 1.0 Pro、1.0 Ultra 和 1.5 Pro 模型。
通过在 Vertex AI 上使用 Gemma 模型,开发人员可以利用端到端 ML 平台,使模型的调整、管理和监控变得简单直观。 借助 Vertex AI,构建者可以减少运营开销,并专注于创建针对自身需求进行优化的 Gemma 定制版本。例如,使用 Vertex AI 上的 Gemma 模型,开发人员可以从事以下工作:
针对文本生成、内容摘要和问答等轻量级任务,构建生成式 AI 应用
使用定制的轻量级模型进行探索和实验,以支持研发工作
支持需要低延迟的实时生成式 AI 应用场景,例如流文本
通过 Vertex AI,开发人员可以轻松将自己调整的模型转化为可扩展的端点,从而为各种规模的 AI 应用程序提供支持。
使用 GKE 上的 Gemma,从原型扩展到生产
GKE 提供了构建自定义应用程序需要的工具,从简单的项目原型设计到企业规模产品皆适用。开发人员现在也可以直接在 GKE 上部署 Gemma,创建自己的生成式 AI 应用程序,用于构建原型或测试模型功能。
在熟悉的工具链中,将自定义的微调模型布署在可移植容器中,并同时运行应用程序
自定义模型服务和基础设施配置,无需配置或维护节点
快速集成 AI 基础设施并具有可扩展能力,满足最严苛的训练和推理场景
GKE 提供高效的资源管理、一致的运营环境和自动资源调度能力。此外,它还可以通过轻松编排 Google Cloud AI 加速器(包含 GPU 和 TPU)来强化环境,在构建生成式 AI 模型时提升训练和推理速度。
立即开始在 Google Cloud 上体验 Gemma
您现在可以在 Google Cloud 的 Vertex AI 和 GKE 上开始使用 Gemma 模型。更多 Gemma 相关信息,欢迎访问 ai.google.dev/gemma 参阅快速入门指南。
文章信息
相关推荐
