全球领先的云服务提供商Akamai近日宣布与英伟达达成战略合作,共同推出专为AI推理设计的边缘云平台Akamai Inference Cloud。这一合作标志着AI算力正从传统数据中心向边缘网络加速迁移。
该平台率先集成英伟达最新发布的RTX PRO 6000 Blackwell GPU架构,配备96GB显存和24K CUDA核心。业内专家指出,这款GPU在企业级市场的显存容量远超消费级产品,其平衡型性能既能满足专用AI模型的高效推理,又能支撑大型语言模型的高显存需求。
Akamai亚太区总监李文涛强调,选择这款GPU的关键在于其出色的边缘部署适配性。与传统集中式推理架构相比,新方案可实现智能体响应速度提升6-10倍,P95延迟降低高达5倍。这得益于Akamai全球网络的覆盖优势——95%的互联网用户可实现单跳访问,平均延迟仅10毫秒,远低于中心云的百毫秒级别。
在成本控制方面,Akamai展现出显著优势。其网络流量成本仅为0.005美元/GB,比主流公有云低20倍以上,为需要大量AI推理和数据回传的企业带来可观的降本空间。
目前,边缘AI推理需求已在多个行业爆发。媒体娱乐行业用于实时内容识别,电商平台实现即时推荐服务,智能驾驶领域提升安全响应,金融机构完成实时风险识别。这些应用都受益于边缘计算的低延迟特性。
值得注意的是,Akamai在中国市场主要服务出海企业,其中国团队超过三分之二为技术人员,提供顾问式技术支持。随着新平台的推出,这些企业在海外部署AI服务将获得更快、更稳、更低成本的解决方案。
业内人士分析,这场合作预示着AI竞争进入新阶段。当AI应用从模型训练转向大规模推理,算力的地理位置变得至关重要——越靠近用户,价值体现越充分。未来的竞争焦点可能不再是单纯的算力比拼,而是如何将AI推理能力高效部署到全球每个角落。





