数据中心演变:如何克服其布线挑战

康宁公司的罗恩·格鲁恩和拉塞尔·柯克兰
出现在电缆安装和维护2018年7月

数据中心内的技术正在发生变化。但在我们花时间讨论如何讨论如何,我们需要首先开始为什么。2017年,近四分之十亿用户首次登录互联网,2018年的用户数量增长了7%。社交媒体看到11个新用户一秒钟,普通人是估计在网上每天至少花费六个小时。在世界范围内,预计每人每人估计六到七个设备,在美国内部每人13个,到2020年。那为什么这是重要的?

答案很简单:收入。几乎所有公司都有他们用来吸引和互动的网站,以及2017年的电子商务赢得了近1.5万亿美元的。如果您的网站需要超过三秒钟才能加载,您可能会失去近四分之一的访客。只需延迟的一秒等同于页面浏览量的11%,转化减少7%。爱立信进行的一项研究表明,几秒钟的视频缓冲可以触发焦虑水平的相同增加,因为单独观看恐怖电影或试图解决复杂的数学问题。所有这些都转化为需要更快的连接和更大的容量。

服务器活动在过去几年中有所增加,预计这一增加将继续。服务器速度推动收发器销售和开发。正如您在图1中所看到的,1G连接很快就变得遗传,并且很快就会才能消失。25g收发器目前在市场上立足,但在未来几年内应在50克中黯然失色。此外,许多高度高音和云数据中心预计将是100G服务器速度的早期采用者。使用平行光学和分组能力的交换机的相等数据速率或40,20,100和400g的平行光学收发器的2光纤收发器可以支持这些更高的服务器速度。


图1所示。全球服务器出货量(来源:Dell’oro Group)

收发器制造商使用几种不同的技术来实现这些不断增长的数据速率。无论收发器之间的连接是用多模光纤还是单模光纤,这些不同的技术都依赖于相同的基本工具。第一个也是最简单的方法就是增加波特率。换句话说,就是你打开或关闭激光的速度。第一种方法适用于较低的数据速率,如10G,但在较高的数据速率时就会出现问题,因为信噪比开始成为问题。

下一个选项是增加光纤的数量。以前您使用两条光纤创建10G或25G连接,现在您可以使用8条光纤创建40G或100G连接,方法是在并行传输场景中使用几对光纤。接下来,我们可以增加波长的数量。这是通过使用多个源和多路复用信号到一个单一的光纤和解复用信号一旦收到。这通常被称为波分复用,或波分复用。

实现更高数据速率的另一种方法是改变调制格式。收发器可以使用脉冲幅度调制(PAM4)来使用脉冲幅度调制(PAM4)来携带同一时隙中的数据量的四倍。更高的数据速率,无论是使用NRZ还是PAM4,都需要某种前向纠错算法。因为噪声对PAM4产生了更大的影响,所以它需要更复杂的FEC算法。无论使用哪种方法都使用,最后,您正在查看2或8-光纤解决方案。有一些早期的400g解决方案可以使用16或32个纤维,但是可以使用8-纤维(基本-8)基础设施来实现。


图2.迁移路径

当你看到收发器传统上是如何连接的时,选择双工(2根光纤)和并行(8根光纤)解决方案似乎是一个简单的选择,但我们将花一些时间来探索这两种选择。我们将根据价格、功耗、密度和灵活性对每个选项进行评估。

对于企业数据中心,平均链路长度为49米,90%以上的链路长度小于100米。因此,对于大多数数据中心来说,多模光纤和相关的光学对大多数链路来说已经足够了。对于大于100米的链路,单模平行光链路是一个有效的选择。此外,PSM4和SR4光学的价格点是相当的。由于这个原因,大多数超大规模和云数据中心几乎只使用单模连接。对于双工连接,必须开发新的组件来实现更高的数据速率。相比之下,并行光连接利用现有技术来建造下一代收发机。此外,平行光学可以利用四个非冷却激光器或一个与波导分路器和四个调制器耦合的单个激光器。这些特性不仅使它们的制造成本更低,而且还降低了它们的整体能耗。

图3。使用并行收发器节省电力和成本

大多数数据中心所有者和管理人员都同意电力是数据中心内的最大营业费用。出于这个原因,我们可以降低功耗的任何地方都会对整个OPEX产生重大影响。单个10G连接利用1W电源。相比之下,40G并联光学器件消耗1.5W的功率。由于并行光学解决方案为您提供了每次收发器的四个10g链路,因此您可以通过节省60%的功率节省达到相同的10G连接数。要记住的另一个考虑因素是冷却成本。作为一般规则,对于每1千瓦的电源消耗,您需要1千瓦的冷却。因此,电子设备的功耗降低也转化为由于冷却而降低功耗。

利用平行光链路还有助于降低总拥有成本(TCO),提供一个显著密集的解决方案。大多数高密SFP+交换线卡最多支持48个接口。您可以购买36接口的高密QSFP线路卡。如果你在断接模式下操作线路卡,每个端口现在可以被用作4个10G端口。所以单片QSFP线路卡,最多可支持144条10G链路。这将使交换机的密度增加三倍,从而减少支持网络所需的线路卡数量。这意味着更少的电源、风扇盘、管理人员、系统控制器、光纤模块和软件许可证。因此,与部署使用离散10G端口的系统相比,部署使用并行光学的系统的成本降低了85%。机箱和线路卡数量的减少可额外节省约67%的电力和制冷成本。

为了利用这些节省成本的特性,你的结构布线系统必须支持8光纤连接。使用base-8结构的布线系统可以使您在系统设计中获得最大的灵活性,并使您能够更清晰地迁移到更高的数据速率。如果你使用平行光学来达到最大的密度和功耗节省,你现在有一个清晰的路径来升级你的系统。当网络从断接的10/25G迁移到本地的40/100G时,现有的40/100G光学和线路卡在断接模式下可以继续用于操作本地的40/100G链路。你现在有能力为两代速度的开关,线卡,和相关的并行光收发器。

随着数据中心继续发展,数据中心管理人员面临许多问题。其中一些已经讨论过,但这种增长也会影响现在和将来支持这些技术的布线基础设施。布线基础设施需要满足部署截止日期的需求,需要易于安装,而无需担心被录制,并且仍然有能力轻松升级以满足富有技术的环境的需求。换句话说,布线基础架构需要可靠(24 x 7 x 365正常运行时间),灵活(模块化以适应更改)和可扩展(支持数据中心增长)。

部署结构化布线并不是一个新概念。数据中心环境继续远离在安装设备时修补和连接设备的做法。数据中心光缆系统使用多光纤连接器,称为预端中继。预接中继一般为12 ~ 144根,用于连接数据中心的不同区域。但是,不断增长的数据中心占地面积和正在部署的不断变化的网络架构正导致这些典型的主干尺寸不足。这些树干现在要求有288,432,甚至576纤维计数的室内额定组件。使用高纤维数中继将允许在电缆路径中有更大的纤维密度。较大的中继还可以通过减少电缆拉拔次数来减少部署所需的时间。电缆拉力的减少也降低了整体安装成本。

图4描绘了三种不同部署方案的光纤密度。

共有4440根光纤,使用370 x 12根MTP®-to-MTP EDGE™主干

13680根光纤,使用95 × 144根MTP-to-MTP EDGE中继

16,128总纤维使用56 x 288-纤维MTP到MTP边缘树干

图4:不同中继光纤数(12”x 6”)下的电缆桥架填充比对比

数据中心开始扩大超出单个建筑物或数据大厅的范围。最大的数据中心正在增长以包括多个建筑物,这些校园环境需要布线基础设施,包括预先定位的多纤维连接器辫子树干或散装电缆装置。这些使用室内/室外电缆的尾纤中继可具有高达864纤维的纤维。连接性要求正在推动超过864纤维的散装电缆光纤计数,高达1,728和3,456纤维。

结构化布线解决方案

可以部署各种解决方案以满足高纤维计数要求。我们将讨论三种选项,具体取决于安装环境。所有这些方案中的一个常数将是使用多纤维连接器。这些连接器导致更快的安装时间,并提供从2-光纤收发器到8-光纤收发器的路径。利用结构化电缆和多纤维连接器将允许部署可以减少TCO的突破应用程序。

多纤维连接器耳带

在将数据中心内的区域彼此连接时部署多纤维树干。例如,主要分配区域(MDA)到水平分布区域(HDA)或设备分布区域(EDA)。树干将在纤维分配外壳上落在带有后备箱的多纤维连接器到带有​​外壳的模块或适配器面板。这允许通过跳线连接到活动组件。如果途径将允许将拉动夹紧器允许覆盖多纤维连接器并保护它们,可以将MTP中继部署在数据中心的一个房间内,但可以将其拉到相邻的房间。重要的是要注意的是,这些树干的部署需要仔细规划,以确保正确的中继长度是正确的,并且可以达到明确的途径。

2.多纤连接器尾纤中继

尾纤中继部署在两个应用中的一个中。

  1. 当存在拥挤的途径(管道)时,不能通过那些途径拉动拉伸夹具。
  2. 连接数据中心的房间,从建筑物的不同楼层或数据中心校园上的不同建筑物。


除了先前的应用之外,如果数据中心的两个区域之间的精确距离不确定,则可能需要尾纤后备箱。

在尾纤树干被拉出后,需要额外的步骤来准备终止。这些步骤包括进入电缆以暴露光纤,并将电缆分叉以在光纤分布罩的后部保护光纤。电缆的裸端端接有多纤接头、尾纤组件、尾纤盒或预制件。

3.High-fiber-count电缆

高纤维计数电缆利用带状光纤以最大化一个电缆中的纤维密度。与纤维密度相比,带状电缆具有小的外径(OD),这允许电缆部署在拥挤的途径中。如前所述,这些电缆可以包含864,1728和3456纤维。

这些电缆的终止可以使用多纤维连接器,尾纤组件,辫子盒或预箱壳体进行。与预制的电缆相比,这些类型的部署可能导致部署时间增加。这是因为需要准备电缆的两端,以便用纤维分布壳体中的带状纤维保护带状套件的终止。现场封端的电缆的光学性能可能与工厂预付款电缆不一样好。

图6:3,456光纤极端密度电缆

总结

我们讨论了许多数据中心管理人员在规划新数据中心时必须考虑的许多话题。随着数据中心的规模继续增长,这些主题只会使计划更具挑战性。但是,要意识到越来越多的技术变化和未来的数据中心要求可以使数据中心设计过程更加有益,也可以增加TCO。

分享