对企业这棵大树而言,有了强大的数据根系支持,又有 BI 辅助加速光合作用,如果想要收获一树果实,“风”的力量也不可或缺,当下最有力的东风非 AI 莫属。关于 AI 实践,企业遇到了哪些风阻?Google Cloud 又是如何帮助企业更好地利用和转化 AI 的风能? 本文将为您一探究竟。

为 AI 发电,Google Cloud 的数据风能量

2023 年被称为 AI 平民化元年,年初 AIGC 强势破圈走向前台。各行各业其实也早已在探究适合自己的 AI 实践策略,作为技术尝鲜的开发团队也不例外,然而受制于人员、流程、技术、数据的羁绊,大多数企业的 AI 实践仍处在实验、评估测试或原型设计阶段。

痛点 1:机器学习 (ML) 技能差异

Gartner 报告显示,只有 10% 的企业拥有半数以上的经过 ML 技能训练的软件工程师。是否拥有熟练掌握 ML 技能的工程师,不应该成为企业能否应用 AI 技术的限制条件。 

Google Cloud 解决方案:开箱即用的 ML 工具。

Google Cloud 为企业业务端和开发者提供开箱即用的 ML 工具,借用工具,用户可以从平台现有功能中按需调用、组合多种 AI API 接口,直接使用先进的预训练模型。AutoML 让无论新手还是专家级开发者都可轻松创建自定义模型,实现无编码或低编码。

痛点2:数据和 AI 各自为家

ML 始于数据分析,跨越繁杂的统计后,再回归到数据分析。这个工作流中的人员、任务重要级、计算逻辑频繁变化,再加上团队技术水平的差异性、数据孤岛问题,最终会阻碍企业 AI 的步伐。

Google Cloud 解决方案:使用统一的数据和 AI 策略

Google Cloud 将数据和 ML 系统整合在一个界面中,消除因工具、流程、策略不同带来的困扰。身处不同流程节点的开发者,既能访问相同的实时数据,绕开数据孤岛,又能充分利用 AI 和 ML 预训练模型,为开发工作减负。同时平台集成了 MLOps 工具和流程,减少了数据科学家和 IT 团队之间的矛盾。

痛点 3:低效,难以管理、扩展和协作

由于缺乏集成孤立数据源的解决方案,ML 的第一步工作——数据准备变成最耗时的环节,团队需投入大量的人力成本用于在本地、云端去查找、提取、清洗数据。另外,开发者花费大量时间去维护 ML 架构和偿还遗留的技术债务,无暇思考创新。

Google Cloud 解决方案:Vertex AI 在 ML 全生命周期发力

由于与数据的轻松集成、对开源 ML 框架的访问以及与其他 Google Cloud 产品,如 BigQuery 和 Dataproc 的连接,使开发者能快速启动 AI 部署。在同一平台上整合并利用 Workbench 和 Feature Store 等功能,协作提升生产力。

AI 上岗,低效能下岗,Vertex AI 为 ML 生命周期的每一步提速

开发团队采用传统单一的第三方单点式解决方案或工具,最典型的弊端是扼杀了协作,并使得 ML 全生命周期的技术工作变得耗时、耗人且低效......

Vertex AI 则能加速 ML 全生命周期的每一个环节,依托完全托管和集成的 ML 平台来构建、训练、部署和管理模型。平台天然的集成、自动化、创新属性,能帮助提升数据专家、工程师、业务端用户的生产力,轻量化成本。

1、数据准备

借助 Vertex AI,用户可以从不同位置查看所有数据,实现无缝集成。改善了数据团队的协作效能和数据重复调用。

组件:数据标签、元数据、Pipeline、托管数据集、Feature Store

成效:效率提升 70%

2、模型构建/训练/调优

Vertex AI 将预构建模型和 AutoML 引入其 ML 环境以及使用 Pipelines 应用、MLOps 策略来实现流程自动化,简化了企业模型开发和训练。

组件:Pipeline、Vertex AI Workbench、AutoML、Feature Store

成效:效率提升 70%

3、模型可解释性

模型透明可追溯,业务方及其他利益相关者可以轻松理解模型决策的基本机制 。

组件:Pipeline、AutoML

成效:效率提升 60%

4、模型部署

因 Vertex AI 平台 UI 的易用性、预测和模型注册表集成的便捷性,简化了模型部署步骤。 

组件:Prediction、Pipeline、Matching engine

成效:时间缩短 40%

5、模型监控

在共享环境中工作,使用 Workbench 记录所有操作的完整日志,并使用模型监控对模型性能进行持续主动的监控,从而提高了工作效率,一些初级数据工程师和业务用户也能分担这部分工作量。 

组件:Model registry、Model monitoring

成效:时间减少 60%

*以上所有数据来源于:《Forrester: Google Cloud Vertex AI 总体经济影响》


Vertex AI 最佳实践:OPPO 如何为移动设备增强 AI 能力

OPPO 的移动设备在全球范围有广泛的消费市场,为了持续给终端用户提供最优产品体验,OPPO 持续关注和实践领先的 AI 技术。

OPPO AI 实践路上面临着开发周期长、准确率和性能难以兼顾的问题。

  • AI 模型需经反复测试和调优,但若定制 AI 智能模型,则需投入大量资金、人力及时间成本

  • 在云上训练的 AI 模型,如何确保搬到移动设备后,准确度、性能不打折扣也是一大挑战

OPPO 选择与 Google Cloud 牵手,采用 Vertex AI NAS 进行设备端 AI 模型开发。    

  • 在 Vertex AI NAS 中添加功耗自定义搜索约束

  • 通过 Cloud Storage 将 StarFire 平台与 Vertex AI NAS 连接到一起

最终实现:功耗降低 27%,计算延迟降低 40%,同时准确率不贬值,维持在优化前的水平。

AI 风已来,在谷歌,探索 AI 的步伐从未停过,这是一种融入 DNA 式的存在,Google Cloud 邀您一起借东风,上青云,早日实现 AI 真落地!

相关推荐