
近 30 天阅读量 Top 文章推荐
历史阅读量 Top 文章推荐
跳转到类别
近 30 天阅读量 Top 文章推荐
历史阅读量 Top 文章推荐
最新动态
这里包含你想知道的 Google Cloud 技术趋势与最新解读
联系我们

全球领先组织的 185 个生成式 AI 落地案例
AI 时代已经到来:顶尖企业、政府机关、研究机构和初创公司都在积极运用 Google AI 解决方案来提升效率、改进成效。


Google 被 Gartner 评为战略云平台服务魔力象限的领导者
连续第七年,Gartner® 将 Google 评为 Gartner 战略云平台服务魔力象限™ 的领导者。今年是一个重要的里程碑:Google 在报告中取得了显著的进步。


节省 GPU 成本:更智能地自动扩缩您的 GKE 推理工作负载
虽然 LLM 为越来越多的用例提供了巨大的价值,但运行 LLM 推理工作负载的成本可能会非常的高。如果您正在利用最新的开放模型和基础设施,自动扩缩可以帮助您优化成本,在确保您满足可以客户需求的同时,只需支付所需的 AI 加速器支付费用。


最大限度地提高 GKE 上 GPU 的 LLM 服务吞吐量 — 实用指南
让我们面对现实:提供 AI 基础模型(例如 LLM)的成本可能是非常高昂的。由于需要硬件加速器来实现更低的延迟,而这些加速器通常并没有被有效的利用,因此组织需要一个能够大规模提供 LLM 的 AI 平台,同时最大限度地去降低每个令牌的成本。通过工作负载和基础架构自动扩缩以及负载平衡等功能,Google Kubernetes Engine(GKE)可以帮助您实现这一目标。


客户借力 Gemini 收获丰硕实效
Google Cloud Next 大会闭幕不到半年,各行各业客户的创新步伐之快令人惊叹。我们对 Google 在 AI 领域的领先地位和独特优势深感自豪,并将继续从客户需求出发,努力拓展技术疆界。


隆重推出第 6 代 Google Cloud TPU Trillium
生成式 AI 正在改变着我们与技术互动的方式,同时有机会为业务影响带来极大的效率提升。但这些进步需要更大的算力、内存和通信能力才能训练和微调最强大的模型,并以交互方式为全球用户群提供服务。十多年来,Google 一直在开发定制化的 AI 专用硬件张量处理单元(TPU),以推动 AI 规模与效率的发展。


利用 Memorystore 的持久化和灵活节点类型显著提升应用性能
Statsig 等快速发展的客户之所以选择 Memorystore,是因为其出色的性能、无需停机的可伸缩性、99.99% 服务等级协议 (SLA)以及与 Google Cloud 服务的集成。根据他们的计算,与之前的云服务提供商相比,采用 Memorystore for Redis Cluster 后,运行相同工作负载所需的 Redis 费用减少了 70%。


利用 Google Cloud TPU 和 GPU 加快 AI 推理速度
在发展迅猛的人工智能领域中,人们对高性能、高性价比 AI 推理(服务)的需求从未如此之高。本周我们宣布推出两款全新开源软件产品:JetStream 和 MaxDiffusion。 JetStream 是针对 XLA 设备(首先是 Cloud TPU)的新推理引擎。


Google Cloud 上的 Gemma 性能深入剖析
无论您是选择 JAX 或 PyTorch 作为框架、选择通过 GKE 编排实现自行管理的灵活性,还是选择全托管式统一 AI 平台 (Vertex AI),Google Cloud 都会提供 AI 优化型基础架构,让您可以使用 Cloud GPU 或 TPU 轻松地在生产环境中大规模运行 Gemma。Google Cloud 为 Gemma 模型(或任何其他开源或自定义的大语言模型)提供了一组全面的


Meta 发布的 Llama 3.1 现在可在 Google Cloud 上使用
我们很高兴宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,这包括全新的 405B,即 Meta 迄今为止功能最强大、用途最广泛的模型。这些模型的添加,表明 Google Cloud 一如既往地践行打造开放、灵活的 AI 生态系统的承诺,帮助您构建最能满足您需求的解决方案。