云数据中心光互连pg电子直营网的解决方案 -pg电子直营网

应用于云数据中心的光互连pg电子直营网的解决方案

浏览:3147

云数据中心是云计算的基础设施。云计算业务持续渗透,拉动云计算超大数据中心的建设。云it基础设施主要由交换机、服务器以及互连这一切的光缆和光模块(或aoc)组成。云数据中心的大型化将极大提升光模块的使用量,同时对光模块的传输距离有了更高的要求,这将增加单模光模块的使用比例。

云数据中心流量的爆发式增长,驱动了光模块工作速率不断升级,并呈加速态势。10g速率端口迭代到40g速率端口经历了5年,40g速率端口升级到100g速率端口经历了4年,而100g速率端口到400g速率端口或仅需3年时间。未来数据中心所有的出口数据都需经过内部的海量运算(尤其是ai等应用的崛起,内部流量和出口流量更加惊人)。如今,数据中心普遍采用扁平化的架构使得100g光模块市场将持续高速的增长。

根据synergy第三方报告显示,截至2016年,全球超大规模数据中心总数突破300个,2017年则超过390个,目前至少有69个超大规模数据中心处于规划或建设阶段,预测到2019年底之前,全球超大规模数据中心数量将超过500个,届时83%的公有云服务器和86%的公有云负载都将承载在超级数据中心,超级数据中心服务器部署量占比将从21%上升到47%,处理能力占比从39%提升到68%,流量占比从34%提升到53%。

数据中心传统三层架构和扁平化两层架构的对比

光模块和aoc在数据中心光互连应用实例介绍

国内某云数据中心网络架构分为超核心区交换机(spine core), 模组核心区域交换机(edge core,或称leaf switch)和接入交换区域交换机(tor)。

  • 从服务器网卡nic到接入交换区域交换机,采用10g sfp aoc有源光缆互连。
  • 从接入交换区域交换机到模组核心区域交换机,采用40ge qsfp sr4光模块和mpo光纤跳线互连。
  • 从模组核心交换机到超核心区交换机,采用100g qsfp28 cwdm4光模块和lc双纤光纤跳线互连。

国内某云数据中心光模块应用实例

云数据中心端口带宽的升级趋势 (从10g到25g,再到100g)

部署年代 2008–2014 2013–2019 2017–2021 2019–
园区,超大数据中心
400g-fr4
机房内部
400g-dr4
机架内部 cat6
服务器网卡速率 1g 10g 25g 100g

云数据中心光模块需求的特点

由于云数据中心流量增速、网络架构、可靠性要求和机房环境与电信级网络的差异,云数据中心对光模块的需求体现以下特点:迭代周期短、速率要求高、高密度、低功耗。

  • 迭代周期短。数据中心流量高速增长,驱动光模块不断升级,并呈加速态势,包括光模块在内的数据中心硬件设备跌代周期在3年左右,而电信级光模块的迭代周期一般在6至7年以上。
  • 速率要求高。由于数据中心流量爆发性增长,光模块的技术迭代赶不上需求,基本上最尖端的技术都应用到了数据中心。对于更高速光模块,数据中心需求一直都在,关键在于技术是否成熟。
  • 高密度。高密度的核心是为了提高交换机和服务器单板传输容量,本质上还是为了满足流量高速增长的需求;同时,密度越大,意味着可以部署更少的交换机,以节约机房资源。
  • 低功耗。数据中心耗电量大,低功耗一方面是为了节约能耗,另外一方面是为了应对散热问题,因为数据中心交换机背板插满了光模块,若散热问题无法妥善解决,将会影响到光模块的性能和密度的提高。
  • 针对几大需求,易飞扬提供了非常全面的云数据中心光模块产品pg电子直营网的解决方案,其速率覆盖10g至400g,且距离覆盖100m至40km。

网站地图