来源:环球网
【环球网科技报道 记者 李文瑶】生成式AI是否能为云计算带来新的发展机遇?作为全球头部企业,亚马逊云科技也在思考这一问题。
在今年年底的亚马逊云科技年度大会re:Invent 2024上,这家公司发布了一整套面向AI时代的新产品,包括自研大模型Amazon Nova系列、新一代AI训练芯片Trainium 3、新一代Amazon SageMaker(数据分析和AI的一站式平台)、AI助手Amazon Q新功能等。
过去一年,亚马逊云科技通过自研、投资、生态打造等多种方式夯实AI护城河,重塑IaaS(基础设施)、PaaS(平台软件)、SaaS(应用软件)、MaaS(模型服务)层的产品,以期在全球AI技术竞争中抢得先发优势。到年底,亚马逊云科技对外展示了其AI加持的计算、存储、数据库等基础云产品。
“就生成式AI整个行业而言,目前的突破点在于如何快速从技术原型走向生产。”在接受记者采访时,亚马逊云科技大中华区产品部总经理陈晓建认为,在生成式AI的发展上,企业正在从思考阶段转向实践阶段,进行大量场景试验,预计2025年将有更多的客户从原型验证阶段转化为生产阶段。
而云计算不仅是提供产品和技术,更重要的是帮助企业取得业务上的成功。
加码生成式AI 新品密集发布
2023年,亚马逊云科技推出了嵌入式模型Amazon Titan,而今年则进一步丰富了产品组合,发布了Amazon Nova系列——一套包含六个针对不同应用场景优化的模型。此外,亚马逊还计划在未来推出speech to speech和any to any等新型模型。
陈晓建介绍,这些新模型的开发遵循了“逆向工作法”的原则,即首先深入了解客户的实际需求,然后根据这些需求定制相应的解决方案。例如,针对用户在Micro、Lite、Pro以及即将推出的Premier等不同级别上的具体要求,亚马逊设计了各有侧重的模型,以确保它们能够无缝集成到客户现有的产品和服务中,并提供最佳性能。
通过这种方式,亚马逊不仅为客户提供了一个广泛的选择范围,而且保证了每个模型都能精确地满足特定业务场景的需求。
而在芯片方面,亚马逊云科技的自研芯片策略不仅强调技术先进性和性能优化,同时也关注能效和环境影响,旨在为客户提供高效且可持续的解决方案。
目前,Amazon Trainium(训练芯片)专注于提供极致的计算性能,支持大规模分布式计算任务,适用于复杂的模型训练。
Amazon Inferentia(推理芯片)主要针对推理任务,相比训练芯片,多机协同的需求较低,在设计过程中充分考虑了能效和碳排放等因素,确保高性能的同时也注重环保。
陈晓建透露,亚马逊云科技与Anthropic合作,正在构建名为Project Rainier的EC2 UltraCluster。该集群包含数十万颗Trainium2芯片,能够提供比当前一代领先AI模型训练所需算力高出5倍以上的超级算力。
此外,亚马逊云科技大中华区数据分析与生成式AI产品总监崔玮强调,公司的整体策略是以客户需求为导向,利用Amazon Bedrock平台部署第一方(内部开发)和第三方(外部合作)的模型,从而为客户提供更加多样化的选择和支持。
事实上,在此次新推出的模型中,为了实现低延时和低成本的目标,亚马逊云科技在其逆向工作过程中不仅专注于模型本身的优化,还在多个技术层级进行了创新。例如,正式推出的Trainium2自研芯片是关键组件之一,旨在提高性能同时降低成本;基于Trainium2芯片构建的这两款实例和服务器提供了强大的计算能力,特别适用于训练大型语言模型等任务;Amazon Bedrock层包含了“优化的低延迟推理选项”等功能,专门设计用来加速生成式AI应用的部署,并确保高效的运行效率。
据崔玮透露,通过上述各层级的技术创新,亚马逊云科技能够显著降低客户在部署生成式AI应用或Nova系列模型时的成本,与同等级别的其他模型相比,成本可降低约70%。
从尝试到生产 技术落地深入应用场景
随着生成式AI的发展,越来越多的客户正将其业务从尝试阶段推进到生产阶段。这一转变带来了多种任务需求,包括开发、训练和推理等不同类型的作业。面对这些多样化的需求,如何选择合适的集群和资源管理方式以实现最高效的资源利用成为了关键问题,尤其是在GPU成本高昂的情况下。
“当进入到生产阶段时,就不可避免地要考虑如何将数据和AI一体化管理。”崔玮说道,这也是亚马逊云科技在新产品应用升级方面考虑的主要问题。
据崔玮介绍,SageMaker 致力于帮助客户充分利用已经预订的云资源,确保每个GPU和其他计算资源都能得到最大程度的应用。这是通过优化资源配置和调度来达成的,从而直接助力客户的生产过程,减少浪费并降低成本。
在前期探索阶段,客户往往专注于评估模型和技术是否适合其业务需求。然而,当进入生产阶段时,就需要考虑更复杂的问题,如如何将数据管理和AI开发整合起来,确保数据流、数据治理及安全性等方面的一体化管理。
为此,亚马逊云科技推出了Amazon SageMaker Unified Studio(统一工作室)和Amazon SageMaker Lakehouse(数据湖仓)。这两个工具旨在为客户提供一个统一的工作环境,使他们能够在同一平台上完成从数据准备到模型部署的所有步骤,简化工作流程,提高效率,并确保数据的安全性和合规性。
“新一代Amazon SageMaker提供数据和AI的统一,去应对训练、推理、MLOps等场景。同时,Amazon SageMaker AI也有很多新的功能来加强用户的体验。”崔玮说道。
出海仍是重要场景需求
实际上,从生成式AI的应用场景选择来看,不同行业的客户需求和痛点各异,难以找到一个统一的应用起点。在陈晓建看来,“作为中国区的生成式AI团队,首要任务是与客户合作,识别最适合的应用场景。”
而代表性的应用场景,包括,利用知识库、代码生成工具等提高员工工作效率;通过集成知识库和其他AI能力,显著改善客服响应速度和服务质量;帮助中国企业出海时解决多语言翻译难题,特别是小语种的支持问题,而这在过去是一个非常大的挑战。
目前,出海是中国市场的重要需求之一。据陈晓建观察,生成式AI兴起后,出现了生成式AI原生创新企业,它们借助生成式AI开展之前无法从事的业务,发展速度迅猛,且很多在出海时选择亚马逊云科技作为承载云平台。“我们预测,随着生成式AI能力逐步完善,这类生成式AI原生企业创造的应用会越来越多。从海外榜单来看,在教育、陪伴等诸多领域,很多头部企业都是中国企业,这是一个我们看到的趋势。”
而从2024年来看,许多企业从思考阶段进入实践阶段,进行了大量场景试验。陈晓建预测,2025年肯定会发生变化,很多客户有望从原型验证阶段转化为生产阶段,“这是必经之路。”在这一过程中,企业的需求将更加复杂,不仅是选择模型,还需要各种技术支持。这也是亚马逊云科技在开发Amazon Bedrock等产品时,不仅提供模型市场,更重要的是提供能让模型推理运行时所需的各种生产力工具和生产环境工具。
“中国有很多优秀的初创企业已经成功应用生成式AI,这在不同的行业清晰可见。相对而言,传统企业进展较慢,但也在朝着应用生成式AI于生产的方向稳步迈进,我们期待明年能看到更多传统企业在这方面取得进展。”陈晓建说道。(古雨)