新的数据流、更高的交流机密度和IP整合会在全体设计流程中造成问题。
云数据中央改变了网络拓扑构造以及数据在大型数据中央内的移动办法,匆匆利用于路由数据的芯片架构发生重大变革,并带来了一系列全新的设计寻衅。
云打算已经成为数据中央市场中增长最快的部分。事实上,根据思科环球云指数预测,未来几年内,云打算将增长三倍,到2021年,云打算将占到所有数据中央流量的95%。这种增长的一个关键部分是虚拟化,它许可动态分配打算实例和事情负载,以跟上云做事的动态特性。
从另一个角度来看,现在超过75%的流量在数据中央中东西向逐个做事器地流动。这引发了第一组问题,由于传统的三层网络拓扑构造是针对南北客户端—做事器流量进行优化的,因此无法有效处理这类数据流。
为理解决数据流转移问题,并最大限度地减少延迟和瓶颈,云数据中央正在转向叶脊(leaf-spine)拓扑,个中每个叶做事器可以通过脊进行单跳(single hop),访问其他叶做事器。
来源:Cadence Design Systems
Cadence Design Systems接口IP高等产品营销经理Muthukumar Vairavan表示:“在叶脊拓扑构造中,每片叶都要连接到每个脊开关。因此,可以支持的主机数量以及网络带宽扩展现在变成了交流机设备端口数量和每个端口带宽的函数。交流机的带宽紧张取决于交流机ASIC和可安装在单个机架单元中的光学模组数量。”
目前,最前辈的交流机ASIC拥有多达256条PAM-4 SerDes信道,每条信道的运行速率为56Gbps,总带宽为12.8Tbps。Vairavan表示:“总的来说,这种交流机最多可以支持32个端口400GbE(8条线路,每条56Gbps)。但是,随着超大规模数据中央对带宽的需求不断增加,交流机厂商希望将芯片带宽提高一倍,达到25.6Tbps。传统上,这是通过将SerDes信道速率更加来实现的,而光学网际互联论坛(OIF)正致力于定义112Gbps SerDes规范,以实现这一目标。”
在这样的速率下所面临的寻衅是,信道损耗非常高,而且SerDes须要很多均衡。采取前辈的DSP技能对旗子暗记进行规复,这可能导致显著的功耗。Vairavan建议,为理解决这个问题,平台设计须要转向更好的PCB材料,利用有源电缆和重定时器,以保持在这样的速率下信道损耗可控。“另一项新兴技能是板载光学(OBO),光学芯片靠近电路板上的交流机ASIC放置,因此减少了电子信道。 通过将光学元件从面板移走,OBO还可以供应更好的密度和冷却效果。OIF指定了许多类别的SerDes规范,如Long-Reach,Medium-Reach,Short-Reach等,以便对特定的交流机配置进行精确的SerDes性能/功率权衡。”
虽然构建个中一个芯片须要许多IP,但有四个项目常日会引发谈论——SerDes、HBM PHY、网络级片上存储器,以及TCAM(内容可寻址存储器)。
eSilicon公司营销副总裁Mike Gianfagna表示:“SerDes须要实现高速片外通信。HBM PHY须要将2.5D封装的HBM堆栈内存连接到ASIC上。网络级片上存储器就像双端口和伪双端口存储器一样,针对极高速率进行了优化,TCAM用于实现高效的网络数据包路由。”
Gianfagna指出,IP问题还有其余两个方面。“首先,经由芯片验证的高质量IP非常主要,但还不足。还必须验证IP可以协同事情。诸如可测试性策略、操作点和金属叠层之类的东西——这种兼容性大大降落了整合风险。其次,IP必须在考虑终极运用的情形下进行配置。 个中包括编译内存和TCAM等内容,以支持SerDes的不同配置哀求和可编程性能。”
位置,位置,位置
然而,没有一种方法可以适用于所有情形。一个别系公司想要从它的IP供应商那里得到什么芯片取决于芯片的设计运用。
Synopsys公司高速SerDes产品营销经理Manmeet Walia表示:“有多种方法看待这个问题。首先,你要在更广泛的层面上认清楚你所做事的市场是什么,无论是企业、校园、数据中央(现在被称为超大规模数据中央),还是电信根本举动步伐。如果把它们按规模排列,那么企业要排在第一位,它们是较小的数据中央。然后是云供应商——谷歌、facebook、亚马逊——这便是所谓的超大规模数据中央。末了是做事供应商,如ATT等。根据你所做事的工具,三种规模的需求各不相同。”
第二个成分涉及到这些公司所须要的详细功能。Walia表示:“无论是CPU芯片组、GPU、加速器、适配器卡、交流机、存储阵列还是安全系统,根据它们的功能,又会涌现不同的哀求。第三,从PHY的角度来看,它们在系统中的位置很主要,无论是在刀片做事器卡内,还是在中间卡上,或是在交流机架的顶部。以是它们的位置决定了它们的需求。市场整体上非常分散,由于它变得越来越繁芜。”
Walia说,除此之外,还有一群开拓职员在评论辩论芯片,由于它们被逼到了芯片裸片尺寸或光罩的边缘。“他们现在想要进入chiplets,我们正在从那些想要做所谓的USR(超短间隔)SerDes的客户那里得到需求。这是另一个须要办理的市场。”
本日,大多数网络设计活动都在云端,个中大部分都是由AI和机器学习运用驱动的。Walia表示:“有趣的是,所有网络公司现在都在考试测验遵照垂直整合模式,他们乃至在考试测验自己制作芯片组。无论是中国的阿里巴巴、腾讯、百度,还是美国的Facebook、谷歌,都在考试测验自己的AI芯片组。他们不想利用商业芯片。因此,至少从IP的角度来看,我们的业务指标不是芯片量。更多的是从设计开始的,当然,我们在此处看到了云打算驱动了我们大部分IP业务。”
西门子Mentor奇迹部IP部门总经理Farzad Zarrinfar对此表示赞许:“基本的处理器并没有达到哀求,以是我们看到紧张的OEM、搜索领导者、游戏领导者和通信领导者都在开拓他们自己的ASIC。显然,这些ASIC很多取决于运用。如果它是数据中央运用,或是某种汽车运用,亦或物联网运用,我们就会看到很多构建模块。例如,如果你不雅观察一个三层千兆交流机,那么你就会创造1千兆位和10千兆位MAC(媒体访问掌握器)。有些人在芯片内部加入了ASIC、收发器、SerDes和PHY,以进一步提高整合度,并最大限度地降落本钱。有些人希望基于自己的架构来保持它。他们使PHY和SerDes具有更大的几何形状,并且在芯片外利用它们,他们将更大的几何构造用于SerDes。然后,在纯数字部分,他们将工艺推进到10nm和7nm,乃至可以降至5nm finFET技能。”
Walia说,这种模式在过去几年中迅速涌现。最初,这些公司开拓低端运用,比如摄像头,但现在他们正在转向高端数据中央,并完成越来越多的事情。
对付AI / ML运用而言,芯片紧张是许多带有ARM 64位处理器的SerDes。Walia表示:“这是一组ARM高端处理器,周围是SerDes。它们通过SerDes使这些核心能够以非常快的速率相互通信,然后这些SerDes也以盒子对盒子的办法与其他类似的设备通信。从实质上讲,它是一个输入和一个输出,但它们之间发生的是一个指令集,许可它们在一段韶光内通过可重复性,以及读取人类行为或其他数据来接管演习,以是它许可自我编程,许可在一段韶光内学习,这便是它们须要强大处理能力的缘故原由。”
网络设计的另一个方面涉及密度哀求。Walia表示:“如今,这些都转化为整合的寻衅。整合变得越来越主要,我们一贯在与想要整合多达300条SerDes信道(某些情形下乃至达到500条)的客户进行互换,这哀求我们作为IP供应商为他们供应很多做事,以便他们可以整合这些SerDes。这个区域须要非常小,即前端须要非常窄,以便沿着PHY的边缘放置越来越多的SerDes。其余,我们现在须要在两个方向上都有PHY,以便设计团队能够最舒畅地将它们放入芯片的所有四个侧面。这是由于在28nm以下,台积电不许可我们翻转多边形方向。但这意味着我们必须有两个不同的设计和两个不同的布局,以便他们可以有效地将这些SerDes放在四个侧面。除此之外,我们还必须许可它们在内部有多个层次——基本上要在IP内部包含两级、三级深度的SerDes。”
与此同时,Walia指出,OEM正在越来越多地采取封装凸点技能(packaging bump technology),而不是采取标准的C4凸点(C4 bumps)。“很可能他们正在利用插入式方法(interposer-type),以是他们须要更宽,并且凸点可能须要有捐躯pad或微凸点技能(microbump technology)。从实质上讲,须要大量的凸点定制以及许多后端做事。你如何把所有这些东西放在一起?如何把所有这些旗子暗记带到封装基板上?如何把它们放入SoC?如何以1GB /秒或类似的速率进行时序收敛?所有这些都是巨大的寻衅,以是当我们供应这些IP时,我们必须供应很多关于如何利用它们的辅导。过去我们认为,IP非常难以设计,但易于整合。但现在不是这样了。它们不但很难设计,而且更加难以整合。”
管理IP
如今设计的许多高等网络芯片组和ASIC都以数据中央为目标,个中功耗、性能和面积都是关键成分。它也是芯片制造商最赢利的领域之一。
ClioSoft公司营销副总裁Ranjit Adhikary表示:“这便是云打算领域正在发生的统统。每个人都想把东西放在云端,云端市场正在增长。鉴于此,每个数据中央公司都希望降落本钱,因此功耗和可靠性成为非常主要的组成部分。当你谈论下一代网络交流机、定义一个平台时,你须要确保I/O带宽和内存子系统都能够供应所需的性能。因此,你基本要确保所有IP都可以即插即用。你须要确保它们都有相同的金属叠层、可靠性哀求、事情范围、掌握接口——乃至相同的DFT方法。当你现在评论辩论这些事情的时候,IP管理平台就变成了一个主要组成部分,由于到头来你总是希望可以得到你想要的IP。你想知道参数是什么,于是下载它,查看它,从而无需经由一个漫长的周期来确定IP是否有效,或者到处探求支持数据在哪里。”
找到各种IP区块并确定它们是否在其他地方被利用至关主要。Adhikary表示:“许多公司将为不同的代工厂供应不同的PDK,设计团队须要知道IP是否经由代工厂验证,或者同一公司的其他客户是否正在利用它。你想知道IP的可靠性。例如,它投入生产了吗?有什么问题吗?终极,问题归结为文档记录的功耗、性能和面积有多好。我们在大多数公司中创造,信息并不全都集中在一个地方,因此把IP管理系统与文档掌握系统联系起来变得很主要,这样每个人都能保持同步,而这仅仅是个开始。”
展望未来
随着云做事供应商把25.6Tbps交流机迁移到51.2Tbps,传统的扩展技能彷佛不太可能知足需求。
Walia表示:“交流机ASIC是在前辈技能节点上实现的,以利用增加的密度和更低的功率,但正在触到光罩和产量的极限。一种迅速遍及的选择是芯片分解,大型芯片被分解为可管理的芯片尺寸,然后利用高速、低功耗的封装内互连技能整合到多芯片模组(MCM)封装内。另一种选择是将逻辑芯片和SerDes分开,并将它们放在MCM中。通过转向封装内光学,可以得到51.2Tbps所需的更大的光学密度,所谓封装内光学是将光学芯片与MCM中的开关ASIC芯片整合到一起,以实现异构系统级封装(SiP)。然后可以将光纤连到面板或尾纤上。”
交流机ASIC和高速光电互连是云时期数据中央的支柱。为了知足这些数据中央带宽的爆炸性增长,交流机ASIC制造商、光学和互连IP供应商和标准机构须要建立生态系统。未来的办理方案将环绕异构办理方案展开,这些办理方案将为特定的运用和独特的数据流量身定制,以知足新的性能、功耗和可扩展需求。