F5结合NVIDIA BlueField-3 DPUs 加速服务供应商的边缘AI部署
F5宣布BIG-IP Next云端原生网络功能现已部署于NVIDIA BlueField-3 DPU ,深化两家公司的技术合作。该解决方案提供经认证的F5网络基础设施功能,包括边缘防火墙、DNS和DDoS保护,转化为轻量级云端原生功能,并透过NVIDIA BlueField-3 DPU运作,将在Kubernetes环境中提供最佳效能并支持新兴的边缘 AI应用场景。
F5 Application Delivery and Security Platform为全球主要5G、移动和固网电信网络提供支持。服务供应商面对在分散式环境中扩展AI应用的挑战,特别是因为网络核心中的传统基础设施,通常缺乏AI推论使用时所需的处理能力。
在NVIDIA DPU上运作的F5云端原生网络功能,现在可以嵌入到边缘和线上基础设施中,以优化运算资源、大幅降低每Gbps的功耗,并减少整体营运费用。供应商进一步运用边缘环境将为用户服务增加功能和 AI 能力,相对也带来额外的安全要求,F5和NVIDIA BlueField技术不仅能提供强化的安全防护,实现进阶的流量管理,并将延迟降到最低。
当在BlueField-3 DPU上部署CNF时,F5进一步扩展F5先前推出在NVIDIA DPU上部署的BIG-IP Next for Kubernetes。F5 继续采用NVIDIA DOCA Software Framework,将其解决方案与NVIDIA BlueField DPU 无缝整合。
这个全面的开发架构为F5提供一套强大的API、函式库和工具,使其充分发挥NVIDIA BlueField DPU的硬件加速功能。透过利用 DOCA,F5快速实现跨各种网络和安全卸载的整合并提供高效能,同时确保跨几代 BlueField DPU的兼容性。此外,藉由使用NVIDIA BlueField-3加速F5 CNF释放CPU资源,可用于执行其他应用程序。
边缘部署为服务供应商开启主要机会,包括用于UPF的分散式N6-LAN功能,以及支持分散式接取架构 (DAA) 和私有5G的边缘安全服务。此外,AI-RAN正在蓬勃发展,软银最近与NVIDIA展示其生产环境。
AI-RAN致力于将移动网络转变为多用途基础设施,最大化资源利用率,透过托管AI服务创造新的营收来源,并提高成本效率。AI-RAN使电信服务供应商能够透过可靠、安全且最佳化的连线,支持分散式AI运算,并激发原先闲置未使用的处理能力,加强边缘基础设施功能。
BIG-IP Next CNF与NVIDIA BlueField-3 DPU的结合,将加速AI-RAN部署,实现简化AI和RAN工作负载的流量管理,提供强化的防火墙和DDoS保护。
尤其针对关键功能的应用,解决方案会原生支持多租户架构和租户隔离功能。透过F5和NVIDIA,电信服务供应商可以智能地利用相同的RAN运算基础架构,为现有RAN服务提供AI产品,透过强化的使用者产品来大幅节省成本并发挥营收潜力。
F5服务供应商副总裁兼总经理Ahmed Guetari表示,客户正在寻求具被成本效益的方式,将统一应用交付和安全性的优势带入新兴的AI基础设施,这推动F5和NVIDIA之间的持续合作。尤其是服务供应商将边缘视为一个日益受关注的领域,因为数据存取和推论无需在集中位置或云端环境中进行,这为网络增加智能和自动化功能提供无数选项,同时提升用户效能。
NVIDIA生态系统和行销部门AI网络和安全解决方案资深总监Ash Bhalgat表示,随着边缘AI推论的需求成为焦点,建立支持AI就绪的分散式基础设施,是电信供应商为客户创造价值的关键机会。
F5的云端原生功能透过NVIDIA的BlueField-3 DPU加速,打造一个强大的解决方案,让AI更贴近用户,同时为服务供应商提供无与伦比的效能、安全性和效率。不仅满足边缘AI需求;正在帮助企业利用人工智能在互联世界中保持竞争优势。