利用高速接口IP避免云数据流量拥堵

网友投稿 291 2022-11-08

利用高速接口IP避免云数据流量拥堵

简介

数据中心内部和数据中心之间的长距离数据移动

随着数据速率的提高,接口功耗(通常以“皮焦耳/位”为测量单位)和面积变得越来越重要。物理接口 (PHY) IP 具有明显的优势,可最大限度地减少能耗,同时在所需距离内可靠地提供数据,从而可最大限度地降低基础架构的功耗和散热成本。节省空间的硅 PHY 解决方案可最大限度地降低 SoC 成本,从而为 SoC 供应商提高盈利能力。

图 2:超大规模数据中心基础架构逐渐转向采用 400+GbE

服务器内部的数据传输

图 3:PCI Express 每个通道的带宽升级过程。来源:PCWorld

近来,由计算系统生成和处理的数据量(尤其是非结构化数据)持续增长,已促使了新架构的产生,新架构通常采用加速器来加快数据处理。将数据从一个处理器域复制到另一个处理器域是一个资源密集型过程,这会显著增加数据处理的延迟。缓存相干解决方案让处理器和加速器共享内存,而无需将数据从一个内存空间复制到另一个内存空间,从而节省了复制数据所需的内存资源和时间。

与其他外设互连相比,用于高性能计算工作负载的 CXL 可显著降低延迟。由于 cxl.cache 和 cxl.mem 事务的延迟仅为 50-80 纳秒,因而在 PCIe 延迟中,CXL 延迟仅占一小部分。此外,CXL 通过使用资源共享提高性能并降低复杂性,这也降低了总体系统成本。

SoC 内的 USR/XSR 数据移动

许多现代服务器 SoC 利用在单个 package 内放置多个 Die,在符合设计和制造约束的范围内提供所需的性能。因此,需要高速 die-to-die (D2D) 通信以在芯片内的 Die 之间传递大型数据集。超短距离/极短距离 (USR/XSR) SerDes 可实现这一传递,当前设计使用 112Gbps SerDes,并且在未来几年内可能会达到更高的速度。

图 4:举例展示 Die 间互连用例

总结

云数据的快速增长推动了对于更快、更高效接口的需求,以将云基础架构内的数据从网络和系统向下传输到芯片级数据通信中。新推出和正在开发的接口技术(包括 400Gbps 和更快的以太网、PCIe 6.0 和 CXL 外设互连技术,以及用于 Die 间通信的新型高速 SerDes)可实现必要的基础架构改善,以支持不断提高的云数据需求。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:政务大数据的上下文范围
下一篇:云观察系列:政务云之浅见
相关文章

 发表评论

暂时没有评论,来抢沙发吧~