AMD 芯片基石:Infinity Fabric解析
首页 > 观测 > 数码科技    作者:剧毒术士马文   2017年4月8日 17:02 星期六   热度:3797°   1条评论    
时间:2017-4-8 17:02   热度:3797° 

AMD从Ryzen这代起启用了新的芯片内、外部互连:Infinity Fabric。


Infinity Fabric实际是由传输数据的Infinity Scalable Data Fabric(SDF)和负责控制的Infinity Scalable Control Fabric(SCF)两个系统组成,如果把Infinity SDF比作芯片运输数据的血管,Infinity SCF就是芯片的神经了。


点击查看原图

Summit Ridge

img009.jpg

IF

img001.jpg

SCF

img002.jpg

SDF


SDF的设计目标是连接很多引擎的情况下,仍能保持传输数据的高拓展性。而SCF则是将不同的SoC纳入同一控制下的系统。这些SoC不仅包括桌面版的CPU Summit Ridge,还包括服务器的CPU Naples、移动版的APU Raven Ridge、以及GPU Vega系列。Ryzen以后的AMD SoC都将基于Infinity Fabric打造。


IF是将数据传输和控制集为一体的AMD自主IP,算得上是内部机密,不会对其他厂商公开规格。因为IF算是AMD为了给自家产品提供互联才开发的,但其他厂商的设计如果想获取授权,集成IF就很容易。


img003.jpg

AMD  Mark Papermaster(SVP&STO)

img004.jpg

IF将成为AMD产品的基石

点击查看原图




Infinity Fabric SDF在片上(on die)和芯片间连接(off-die)有两个不同的系统。片上的SDF在芯片里将CPU核心、GPU核心、IMC等连在一起,而芯片间的SDF负责在封装上将不同的die连在一起,或者多路插槽连接。


这些Infinity Fabric的逻辑层都是通用的,逻辑层协议通用了,on-die和off-die连接协议无需转换。


Infinity Fabric是具有高拓展性的协议,在一定节点数量内能保持高效率,SDF至少在64核内能保持良好的拓展性能(包括off-die)。Papermaster称双路也能带来几乎两倍的性能。




img006.jpg

4核拓展到8核效率几乎100%

img007.jpg

单路32核一直到双路64核也能保持高效率


另外重要的一点是IF能作为CPU和GPU的一致性连接,之前AMD使用的是业界标准的accelerator interconnect,这次也被off-die的IF代替了。


SDF的协议层是基于AMD以前的Coherent HyperTransport的,但和HyperTransport(HT)并不兼容。


“SDF的内存一致性基于HyperTransport,但拓展了逻辑层。技术上的出发点是HyperTransport,但逻辑层是不同的,因为没有必要兼容HyperTransport,也就可以自由更换协议。




SDF会被称为“Scalable(可拓展)”的原因是,它很灵活,可以根据不同SoC优化配置。



比如今年下半年移动版的Raven Ridge APU上采用的SDF,就和桌面版八核Ryzen的SDF有显著区别。但它们都是Infinity Fabric,架构也相同。


APU上的GPU对带宽需求很大,需要高位宽的内部连接。之前的APU为了解决这个问题,把CPU到内存的总线连接和GPU到内存的总线连接分开了,这导致CPU和GPU的协同工作很困难。AMD可能会通过SDF解决这个问题。因此,SDF在Ryzen的CPU版和APU版会有很大不同。



也就是说,虽然不同产品的SDF都用的是同一个架构,但会根据不同产品调整配置,做出物理上的优化之类。


当前的服务器版本 - Naples的SDF用的是PCIe 3.0物理层。Naples 32核提供了128条高速I/O,可供PCIe3.0、SATA、NVMe和Infinity Fabric使用。双路的情况下,两颗CPU之间使用64条互连,剩余的2x64条留给I/O。


由于Naples 32核是4xMCM封装,所以在封装内部应该也用的是Infinity Fabric互连,互连后剩下的I/O就可以供外部设备/Infinity Fabric使用。



节点间采用Gen-Z,而不是Infinity Fabric


Infinity Fabric连接了on-die和off-die以及多路CPU间的通信,那么节点间是否会用Infinity Fabric呢?


传统上,HPC需要高带宽的节点间连接,目前数据中心也需要这样的。Intel发布的“Omni-Path”就是此类。但AMD不准备把IF推向节点间连接。因为AMD准备采用开放标准。


IF是AMD为了不被芯片内部互连和多路互连的优化所限而开发的,除此之外的比如NVM、FPGA的连接就需要和其他企业合作。Intel采用了自己独家的技术,但AMD不会这么做。集群和外部的连接这方面,AMD会和业界全体合作。


因此AMD参与了“Gen-Z”联盟,旨在开发一个开放的互连标准。


之前AMD收购ARM服务器制造商SeaMicro时,准备采用他们的“Freedom Fabric”,现在来看,几年间AMD做出了策略的转向。【17.5.23更新:AMD的Forrest Norrod确认IF并没有用Freedom Fabric,而是和上面说的一样,技术上的出发点是HyperTransport。】





来源:PCWATCH,原作者後藤 弘茂,本站原创整理及翻译,转载请注明出处。

二维码加载中...
本文作者:剧毒术士马文      文章标题: AMD 芯片基石:Infinity Fabric解析
本文地址:http://moepc.net/?post=1630
声明:若无注明,本文皆为“MoePC”原创,转载请保留文章出处。

WRITTEN BY

avatar

返回顶部    首页     管理   注册   
版权声明       pw:mykancolle.com或moepc.net (有时需加www.) 若被菊爆请留言补档
内容来源于网络,并不代表本站赞同其观点和对其真实性负责。
如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容。
本站资源仅为个人学习测试使用,请在下载后24小时内删除,不得用于商业用途,否则后果自负,请支持正版!
illust:A-Channel/生徒会の一存 Foreign visitors, GoogleTranslate will help   sitemap