Vertex AI 在推出时提出的口号是“一个 AI 平台,提供您需要的所有 ML 工具”。 让我们谈谈 Vertex AI 如何为广泛的用例普遍简化建模的过程。

Vertex AI 的总体目的是简化建模,以便企业可以快速跟踪他们的创新,加快上市时间,并最终增加 ML 投资的回报。 Vertex AI 以多种方式促进了这一目的的实现。例如,与传统笔记本相比,Vertex AI Workbench 等功能将模型的训练和部署速度提高了五倍。Vertex AI Workbench 与 BigQuery 和 Spark 的原生集成意味着没有数据科学专业知识的用户也可以更轻松地执行 ML 工作。 集成到统一 Vertex AI 平台中的工具(例如最先进的预训练 API 和 AutoML)使数据科学家能够更轻松地在更短的时间内构建模型。 对于最适合自定义建模的建模工作,Vertex AI 的自定义模型工具支持高级 ML 编码,使用自定义库训练模型所需的代码行数减少了近 80%(与竞争平台相比)。Vertex AI 提供了所有这些,同时保持对可解释 AI 的高度关注。

然而,在 AI/ML 方面投入最大的组织以及拥有 ML 专家团队的组织需要极其先进的工具集来解决他们最复杂的问题。 简化的 ML 建模不仅限于简单的用例。

例如,让我们了解一下 Vertex AI 的神经架构搜索 (NAS)。

Vertex AI NAS 使最高级别的 ML 专家能够以更高的准确性、更低的延迟和低功耗要求执行最复杂的任务。Vertex AI NAS 源于 Alphabet 在大规模构建高级 AI 方面的丰富经验。 2017 年,Google Brain 团队认识到我们需要一种更好的方法来扩展 AI 建模,因此他们开发了神经架构搜索技术来创建一个生成其他神经网络的 AI,经过训练可以优化它们在用户提供的特定任务中的性能。 令该领域的许多人感到惊讶的是,这些 AI 优化模型能够击败许多最先进的基准,例如 ImageNet 和 SOTA 移动网络,为我们今天看到的许多应用程序设定了新标准,包括许多 Google 内部产品。Google Cloud 看到了这种技术的潜力,并在不到一年的时间内推出了该技术的产品化版本(将 AutoML 作为品牌)。 Vertex AI NAS 是这一理念的最新、最强大的版本,采用了自最初研究以来出现的最复杂的创新。

客户组织已经在为其最先进的工作负载实施了 Vertex AI NAS。 自动驾驶汽车公司 Nuro 正在使用 Vertex AI NAS,该公司自主平台负责人 Jack Guo 表示:“Nuro 的感知团队使用 Vertex AI NAS 加速了他们的 AI 模型开发。Vertex AI NAS 使我们能够创新 AI 模型以实现良好的准确性并优化目标硬件的内存和延迟。总体而言,这提高了我们团队开发和部署感知 AI 模型的生产力。”

我们的合作伙伴生态系统正在为 Vertex AI NAS 发展壮大。 Google Cloud 和 Qualcomm Technologies 的合作将 Vertex AI NAS 引入 Qualcomm Technologies 神经处理 SDK,针对骁龙 8 进行了优化。这将把 AI 引入不同的设备类型和用例,例如涉及物联网、混合现实、汽车和移动设备的设备。

Google Cloud 致力于使 ML 对数据用户(无论是新手还是专家)更易于访问和有使用价值,并提高 ML 对企业的功效,这是我们所做的一切的核心。 借助 Vertex AI 中的一套统一 ML 工具,组织可以在一个 AI 平台上利用他们需要的所有 ML 工具。


相关推荐