[全球网络技术综合报告] 4月17日,Akamai宣布推出战略解决方案Akamai Cloud推断。据报道,在全球分布式云平台中开发的该AI推断的解决方案吸引了对行业的关注,而成功的指标与传统的超层云体系结构相比,其吞吐量降低了3次,潜伏期降低了60%,成本降低了86%。在AI生成应用爆炸的后面,企业逐渐意识到大语(LLM)之间的建筑差异和理解链接。彭博社预测,到2032年,AI理性市场的规模将达到1.3万亿美元,而许多其他最近的报告也证实了这一判决。这种市场转变已包装,这意味着2025年是AI共同推理的加速发展的第一年。 “培训就像绘制地图,这需要一个centralizED超级计算中心;虽然推理类似于实时导航,应在用户的边缘附近发生。数据传递成本,
在这种背景下,Akamai依靠共享网络推出了Akamai Cloud推理解决方案,该网络覆盖了130个国家 /地区的4,200多个节点,以生成独特的“云边缘伙伴关系” Architektura。通过与生态系统合作伙伴(例如NVIDIA和广泛数据)进行深入集成,该解决方案提供了完整的技术夹具,以实现WebAssembly Edge从GPU实时加速计算和向量数据库。具体而言,该解决方案是包括CPU,GPU和ASIC VPU的创新性,以减轻各种概念的资源。同时,Nvidia的Nvidia AI企业生态系统也包括Akamai,利用Triton,Tao Toolkit,Tensorrt和Nvflare,以优化NVIDIA GPU中AI推断的性能。通过将广泛的实时数据数据纳入数据库的AIVE/MILVUS VECTOR数据库的测量对象存储和技术,Akamai建立了一个明智的数据架构,该架构支持增强生成(RAG)的获取,实现了全球微调和低差异AI的安全模型。此外,Akamai还包括开放的资源工具,例如KScide和KubeFlow,通过Linode Kubnetes Engine Enterprise Edition生产容器化的AI推理平台,以及最近发布的Akamai App PlatformE平台实现自动PB级性能,Hybr Muludi-Cloud优化和优化成本。据报道,又名MAI正在与Fermy等WASM提供商合作,以结合Websembly Technologn,这使开发人员能够借助无服务器的架构直接进行轻量级LLM货币,从而为敏感的延迟应用提供了支持。 (青元)