借助NVIDIA技术 Akamai Inference Cloud实现AI从核心到边缘的扩展 智能应用 影音
D Book
236
Microchip
DTtechmem

借助NVIDIA技术 Akamai Inference Cloud实现AI从核心到边缘的扩展

  • 刘中兴台北

借助NVIDIA技术,Akamai Inference Cloud实现AI从核心到边缘的扩展。Akamai
借助NVIDIA技术,Akamai Inference Cloud实现AI从核心到边缘的扩展。Akamai

 负责支持并保护全球在线运作的云端服务供应商Akamai Technologies, Inc.(以下简称:Akamai)今日正式宣布推出Akamai Inference Cloud。该平台透过将推论从核心数据中心扩展至网际网络边缘,重新定义了AI应用的场景与方式。

Akamai Inference Cloud能够在更靠近使用者与设备的位置进行智能化推论。不同于传统系统,该平台专为在全球范围内提供低延迟、实时的边缘AI运算而设计。此次推出的Akamai Inference Cloud,结合Akamai在全球分散式架构方面的深厚经验与NVIDIA Blackwell AI基础架构,对实现AI真正潜力所需的加速运算能力进行了颠覆性重构与扩展。

从个人化数码体验、智能代理到实时决策系统,下一代的AI应用程序迫切需要将AI推论部署于更靠近使用者的位置,以便在互动瞬间完成反应,并对请求的路由与执行路径做出智能化决策。

智能代理的工作负载日益仰赖低延迟推论、本地环境感知以及实时全球扩展的能力。专为推动此变革打造的Akamai Inference Cloud,是一个分散式、生成式边缘平台,可在更接近数据产生与决策执行的位置部署NVIDIA AI技术堆叠。

AkamaiCEO暨共同创始人Tom Leighton博士表示:「下一波AI浪潮的发展同样需要更靠近使用者—正如网际网络当年能够成长为今日的全球平台一样。Akamai曾成功解决这一挑战,如今我们再度迎接新一波机遇。借助NVIDIA 的AI基础架构,Akamai Inference Cloud将在全球数千个节点上部署AI推论能力,以满足不断成长的运算与效能需求,从而实现更快速、更智能、更安全的实时反应。」

NVIDIA创始人兼CEO黄仁勳指出:「推论已成为AI中最密集的运算环节—并且必须在全球规模下实时进行。NVIDIA与Akamai的合作,正是将推论能力推进到更靠近每一位使用者的位置,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。」

Akamai Inference Cloud透过将智能代理AI推论能力扩展至更靠近使用者与设备的位置,重新定义了AI应用的方式。该平台整合NVIDIA RTX PRO Server(配备NVIDIA RTX PRO 6000 Blackwell服务器版GPU、NVIDIA BlueField-3 DPU与NVIDIA AI Enterprise软件),并结合Akamai的分散式云端架构 与遍布全球超过4,200个据点的边缘网络。

Akamai Inference Cloud也将运用NVIDIA最新技术(包括新发布的NVIDIA BlueField-4 DPU),进一步加速并强化从核心到边缘的数据存取与AI推论工作负载,推动Akamai实现其打造全球高可扩展、分散式AI架构的愿景。

Akamai与NVIDIA携手合作,透过Akamai Inference Cloud,以前所未有的方式推进AI推论,共同开创AI发展新篇章:

将企业级AI工厂延伸至边缘,赋能智能代理与个人化体验:

AI工厂是强大的引擎,负责统筹管理从数据撷取到大规模智能生成的完整生命周期。
Akamai Inference Cloud将AI工厂延伸至边缘,使数据与处理能去中心化,并藉由Akamai广泛的边缘节点将请求路由至最佳模型。这让智能代理能实时因应使用者位置、行为与意图,并自主完成实时协商、购买或交易最佳化。

支持串流推论与智能代理,实现实时金融洞察与决策:

AI智能代理往往需多次连续推论才能完成复杂任务,这可能导致延迟并降低使用者体验。若每次推论都需线上呼叫,则会造成网络延迟与反应迟滞。Akamai Inference Cloud的边缘原生架构提供近乎实时的回应,使AI智能代理能在多步骤流程中以接近人类的速度运作,在诈欺侦测、安全支付与工业边缘实时决策等场景中发挥重大作用。

使实体AI具备超越人类的反应速度:

无人驾驶车辆、工业机器人与智能城市基础设施等实体AI系统,需要毫秒级决策能力才能安全地与真实世界互动。Akamai Inference Cloud旨在为这些系统赋能,使其能实时处理传感数据、进行安全判断并协调移动,让工厂产线、配送无人机、手术机器人与智能交通网络都能成为与人类安全协作、反应迅速的智能体系。

加速价值实现:

在多个云端区域编排复杂的分散式AI工作负载需要专业技能与团队。Akamai Inference Cloud的智能编排层可自动将AI任务路由至最佳地点—常规推论透过边缘的NVIDIA NIM微服务 实时执行,而复杂推论则交由集中式AI工厂处理。所有流程皆由单一平台统一管理,大幅降低基础架构的复杂度。Akamai Inference Cloud 现已正式上线,首波部署将涵盖全球20个地点,并计划持续扩展。

了解更多关于Akamai Inference Cloud的信息,请浏览我们的网站

关键字