下载安卓APP箭头
箭头给我发消息

客服QQ:3315713922

数据中心网络架构把我们一网打尽

作者:课课家教育     来源: http://www.kokojia.com点击数:1130发布时间: 2017-05-23 16:00:43

标签: 数据中心网络架构路由器

  未来的数据中心网络架构是什么样的?或许我们并不能看到非常具体的架构细节,但不口否认的是,从宏观角度来看,未来的数据中心网络将会走向一个“一网打尽”的架构方向。何谓数据中心网络架构呢?这就要从传统的数据中心网络架构谈起了。

  一、传统数据中心网络架构

  数据中心前端计算网络主要由大量的二层接入设备及少量的三层设备组成,传统上是标准的三层结构(如图1所示):

数据中心网络架构把我们一网打尽_数据中心_网络架构_路由器_课课家

  传统的网络模型在很长一段时间内,支撑了各种类型的数据中心,但随着互联网的发展以及企业IT信息化水平的提高,新的应用类型及数量急剧增长。随着数据中心规模的不断膨胀,以及虚拟化云计算等新技术的不断发展,仅仅使用传统的网络技术越来越无法适应业务发展的需要。在互联网领域,这一点表现的尤为明显。

  二、数据中心网络的新变化

  截至2013年12月,中国网民规模达6.18亿,全年共计新增网民5358万人,互联网普及率为45.8%。大量网民的涌入必然带来网络流量的急剧膨胀。对于互联网企业,承载具体应用的数据中心的计算资源及网络节点常常满负荷运转;而对于传统企业,随着自身业务量的增加,以及各类业务互联网化的需求,对数据中心的整体的吞吐量也提出了新的要求。

  服务器万兆网络接入渐成主流

  受成本、以及技术成熟度制约,传统数据中心以千兆接入为主。随着CPU计算能力的不断提高,目前主流的服务器处理性能,已经超出了千兆网卡的输出能力。同时,FC存储网络与IP网络的融合,也要求IP网络的接入速率达到FC的性能要求。当仅仅通过链路聚合、增加等价路径等技术手段已经无法满足业务对网络性能的需求时,提高网络端口速率成为必然之选。

  万兆以太网从起步到目前逐渐成为应用主流,延续了以太网技术发展的主基调,凭借其技术优势,替代其他网络接入技术,成为高性能网络的不二选择。目前新的数据中心,万兆网络接入已成为事实上的标准。

  数据中心流量模型发生显著变化

  传统的数据中心内,服务器主要用于对外提供业务访问,不同的业务通过安全分区及VLAN隔离。一个分区通常集中了该业务所需的计算、网络及存储资源,不同的分区之间或者禁止互访,或者经由核心交换通过三层网络交互,数据中心的网络流量大部分集中于南北向。

  在这种设计下,不同分区间计算资源无法共享,资源利用率低下的问题越来越突出。通过虚拟化技术、云计算管理技术等,将各个分区间的资源进行池化,实现数据中心内资源的有效利用。而随着这些新技术的兴起和应用,新的业务需求如虚拟机迁移、数据同步、数据备份、协同计算等在数据中心内开始实现部署,数据中心内部东西向流量开始大幅度增加。

  物理二层向逻辑二层转变

  在虚拟化初期,虚拟机管理及迁移主要依靠物理的网络,由于迁移本身要求二层网络,因此数据中心内部东西向流量主要是二层流量。为增加二层物理网络的规模,并提高链路利用率,出现了TRILL、SPB等大二层网络技术。

  随着虚拟化数据中心规模的扩大,以及云化管理的深入,物理网络的种种限制越来越不适应虚拟化的要求,由此提出了VXLAN、NVGRE等网络Overlay方案,在这一方案下,物理网络中的东西向流量类型也逐渐由二层向三层转变,通过增加封装,将网络拓扑由物理二层变为逻辑二层,同时提供逻辑二层的划分管理,更好的满足了多租户的需求。

  VXLAN、NVGRE等Overlay技术都是通过将MAC封装在IP之上,实现对物理网络的屏蔽,解决了物理网络VLAN数量限制、接入交换机MAC表项有限等问题。同时通过提供统一的逻辑网络管理工具,方便的实现了虚拟机HA迁移时网络策略跟随的问题,大大降低了虚拟化对网络的依赖,成为了目前网络虚拟化的主要发展方向。

  越来越多的网络扁平化需求

  随着虚拟化技术的进步,每台物理服务器的虚拟机数量由8台提升至16台、32台甚至更多,这使得低延迟的服务器间通信和更高的双向带宽需求变得更加迫切。然而传统的网络核心、汇聚和接入的三层结构,服务器虚拟化后还有一个虚拟交换机层,而随着刀片服务器的广泛应用,刀片式交换机也给网络添加了一层交换。如此之多的网络层次,使得数据中心计算节点间通信延时大幅增加,这就需要网络化架构向扁平化方向发展,最终的目标是在任意两点之间尽量减少网络架构的数目。

  伴随着业务访问量的增长,所需的服务器数量也需要持续增长。比如国内腾讯、百度、阿里三家互联网公司,为满足用户访问,平均每两周就有1000台以上服务器上线。这样的上线速度和数量,对整个数据中心的自动化运维提出了极高的要求,基础的网络同样需要适应这种需求。

  网络扁平化后(如图2所示),减少了中间层次,对核心设备交换能力要求降低,对于数据中心而言,后续扩容只需要以标准的机柜(包含服务器及柜顶交换单元)为单位增加即可,这样既满足了数据中心收敛比的要求,又能满足服务器快速上线需要。扁平化成为互联网企业网络设计不断追求的目标。

网络扁平化后(如图2所示),减少了中间层次,对核心设备交换能力要求降低,对于数据中心而言,后续扩容只需要以标准的机柜(包含服务器及柜顶交换单元)为单位增加即可,这样既满足了数据中心收敛比的要求,又能满足服务器快速上线需要。扁平化成为互联网企业网络设计不断追求的目标。

  数据中心的这些变化,对网络提出了更高的要求。Fabric物理网络架构成为解决上述难题的一个重要手段。Fabric英文原意为"织物、布、结构、建筑物、构造","Fabric网络架构"则因其内部纵横互联类似纺织结构而得名。简单的说,就是通过骨干网络节点间分层互联(或全互联)的方式,提供所有接入网络的各类节点间的无差异互访。

  在Fabric架构下(如图3所示),所有节点可以全互联,也可以分层互联。分层结构下,节点类型分为骨干节点和叶子节点,骨干节点与叶子节点间全连接,骨干节点仅用作转发,叶子节点作为二三层的边界。在这种架构下,网络全互联形成的大量等价路径既保证了链路的冗余可靠,又提高了整个Fabric网络的吞吐量;扁平的网络结构保证了任意节点间较高的连接速率,同时对任意类型流量均拥有极低的时延。

在Fabric架构下(如图3所示),所有节点可以全互联,也可以分层互联。分层结构下,节点类型分为骨干节点和叶子节点,骨干节点与叶子节点间全连接,骨干节点仅用作转发,叶子节点作为二三层的边界。在这种架构下,网络全互联形成的大量等价路径既保证了链路的冗余可靠,又提高了整个Fabric网络的吞吐量;扁平的网络结构保证了任意节点间较高的连接速率,同时对任意类型流量均拥有极低的时延。

  Fabric架构给数据中心网络部署带来以下好处:

  可以大幅降低服务器万兆接入的建设成本。当前100GE设备及布线成本都十分高昂,服务器采用10GE接入后,传统结构下,汇聚及核心层设备必须具备100GE的转发能力才能保证尽量低的收敛比。在新的网络结构下,骨干节点只做交换,网关直接部署在叶子节点,Fabric内部采用40GE速率即可满足万兆接入需求,大幅降低了网络建设成本。

  可以支持更大的数据中心。由于这种结构的扁平化特点,在较低的收敛比下,可以通过简单的增加接入设备,方便的接入几千个计算节点,通过Fabric间互联,可以很容易的增加至上万个计算节点,满足了现代大型数据中心规模建设的需求。

  可以满足云计算的网络需要。云计算将计算资源做成了一个资源池,而Fabric结构将网络做成了一个大的资源池。这种结构不再区分南北流量和东西流量,使得计算节点与任意方向通信均无阻塞;对服务器的接入位置没有要求,无论采用VLAN、VXLAN、NVGRE等何种技术,任意节点间可以实现高速、低时延的互联,大幅提高了整网性能。

  但是,Fabric架构并非完美。叶子节点网络设备无论是性能要求还是功能要求,均高于传统架构下的接入设备,其作为各种类型的网关(二三层间、VLAN/VXLAN间、VXLAN/NVGRE间、FC/IP间等等),芯片处理能力要求较高,目前尚无满足所有协议间互通的商用芯片;由于不存在相关的标准,为了实现各种类型网络的接入,其骨干节点与叶子节点间的转发各个厂商均采用了私有封装,这也为将来的互通设置了难题。

  Fabric网络架构这一全新的数据中心网络架构,在规模、性能和简单性方面实现质的飞跃,同时还降低了建设成本,获得了更大的敏捷性和效率,虽然各个厂商在实现这一架构时存在一些自己私有的处理,但目前的确已成为未来数据中心网络架构的一个公认的发展方向。

  三、新型的网络拓扑结构

  新的网络拓扑设计是一种专用通道的拓扑结构,具体的应用走专用的网络通道,这种拓扑设计理论上考虑到网络内的设备可以自由移动物理位置,并继承了传统网络拓扑结构的交换机转发数据的特点。虽然目前的主流网络好像用不上这些技术,但新兴技术的成熟总需要时间来验证,也许不是现在,但作为次世代的技术,在未来有很大的发展空间。

  还有一些其他已经成型的新型网络拓扑结构,这些新兴的结构已经超越了传统基于第三层网络leaf-spine的拓扑结构。虽然这些网络结构并不多见。因为这些网络结构大多应用于特殊领域的数据中心。

  多层的leaf-spine网络拓扑结构已经很接近网络拓扑的基线,许多大型网络利用垂直部署的方法来扩展网络,如VLAN等等。

  Hypercube立方体网络拓扑结构。一个简单的3D Hypercube结构就像由六个面组成的立体方形的网络,每个联结点都由交换机构成。而一个4D Hypercube网络(像一个超立方体)就如一个3D Hypercube网络位于另一个3D Hypercube里面,里外两个网络通过转角的节点连接彼此,设备节点连接在外层的网络。如要实施这种网络结构,需要对自己的需求和预算进行了解,并且要详细明白这种网络结构的特点在哪里。

  Toroidal环形网络拓扑结构。这种结构其实是指任何环形网络拓扑。一个3D 的环形拓扑结构是高度结构化的网络环。环形网络结构通常用于需要高性能计算环境,并可能依靠交换机之间的互连节点计算。

  Jellyfish水母型网络拓扑结构。听起来名字很奇怪,但挺符合它的称呼的。这种网络结构主要的特点在它是一种大随机性的网络,这种网络结构的交换机根据网络设计师的设计相互连接。这种网络拓扑结构的设计比起传统结构可以提高甚至25%的数据容量。

  DCell网络拓扑结构。在这种结构中,网络内的服务器都有多个网卡。其中部分网卡相互连接各个服务器,服务器就像一个大网络环境的细胞一样。DCell一般需要每服务器有四个或更多的网卡。

  FiConn网络拓扑结构。类似DCell,FiConn结构中,每服务器到另一个服务器的互联形成一个细胞节点,但只需要两个网卡。

  BCube网络拓扑结构。类似DCell,FiConn,BCube使用额外的服务器端口直接连接,这些端口是专为模块化网络部署。微软在背后主推BCube网络拓扑结构,并建立BCube源路由协议来管理网络数据中心的拓扑结构。

  CamCube网络拓扑结构。这种拓扑目的是为了优化整个环面的数据传输,它被用于集群主机互连,它是建立在微软的CamCubeOS之上。传统的网络管理方式在这种网络结构上不起作用。

  Butterfly蝴蝶型网络拓扑结构。谷歌的扁平式蝴蝶结构是一个特定的网络结构,类似于一个棋盘。在这种网络结构中,任何节点都可以作为一个开关,节点控制着流量。这种类型的网络目的在于降低功耗,有绿色环保的意义。

  四、数据中心网络拓扑结构中,最重要的是什么?

  目前大多数数据中心的主要网络拓扑结构都是基于第三层协议构建。典型的结构就是通过一个核心交换机连接第二级交换机或者其他网络设备,包括外部网络和内部网络的用户层和汇聚层。

  leaf节点(连接设备或服务器)和 spine节点(连接交换机)是数据中心网络拓扑最重要和明显的部分,简称leaf-spine。这种结构的随着交换机设备的增多会带来传输上的瓶颈,如存储区域网络的数据流量会受到这种交换机节点增多的影响。

  五、未来弹性、自适应的数据中心网络

  我们同样看到,物理网络架构改变后一些问题仍然存在,仅仅依靠对传统技术的修修补补已经无法满足未来数据中心网络的需求。

  数据中心规模越来越大,给运维管理带来压力。现代(特别是大型互联网企业)的数据中心,规模越来越大(如腾讯天津滨海数据中心,一期规模8万台服务器,规划规模达到20万台),所需要的网络设备数量相当惊人。除了各个层次大量的交换机外,可能还需要部署防火墙、防攻击设备、负载均衡、流量清洗等等网络安全设备,设备类型也会越来越丰富。同时,这些网络设备来自不同的厂家,拥有不一样的操作方式。这些对运维人员的能力提出了更高的要求。

  版本更新、业务变更越来越困难。网络需要变更以适应用户业务发展的需要,同时设备厂家会根据需要不定期发布软件修正版本。但当数据中心发展到一定规模后,无论是业务变更还是版本更新,都变得非常困难,这既有设备规模过大带来的巨大工作量的问题,也有如何保证业务连续不中断的考虑。

  精确的流量控制越来越难。当前流量控制主要是基于ACL及QoS,通过识别特定的流量、对其应用特定的策略,来实现对业务流量的管控。由于流量策略都是基于管理员对流量运行的假设,在各个设备预先配置来实现,且策略类型较少,而实际网络上业务流量瞬息万变,预先设置的策略往往不能很好的匹配,无法实现复杂的管理控制逻辑,使得QoS实施效果不佳。

  归结以上问题,实际上是网络缺乏统一的"大脑"。一直以来,网络的工作方式是:网络节点之间通过各种交互机制,独立的学习整个网络拓扑,自行决定与其他节点的交互方式;当流量过来时,根据节点间交互做出的决策,独立的转发相应报文;当网络中节点发生变化时,其他节点感知变化重新计算路径。网络设备的这种分散决策的特点,在此前很长一段时间内满足了互联互通的需要,但由于这种分散决策机制缺少全局掌控,在需要流量精细化控制管理的今天,表现出越来越多的问题。

  经过多年的发展,SDN为解决这些难题提供了可行的解决方案(如图4所示)。它通过集中的控制器来实现对整网设备的监控和管理,利用软件的灵活、动态可扩展,提供丰富的管理控制策略,通过开放相关API,可以集成第三方APP,实现更多的个性化的网络控制。

经过多年的发展,SDN为解决这些难题提供了可行的解决方案(如图4所示)。它通过集中的控制器来实现对整网设备的监控和管理,利用软件的灵活、动态可扩展,提供丰富的管理控制策略,通过开放相关API,可以集成第三方APP,实现更多的个性化的网络控制。

  SDN网络是一种全新的网络。在这样的网络中,控制器就是大脑,它掌控全局,学习整网的拓扑,管理网络中的各个节点。网络中的其他节点,只需要向"大脑"上报网络变化,并按照"大脑"的指挥,完成自己的工作即可。随着网络的规模的增加,网络中"大脑"的数量、功能也随之增加。比如,每台控制器所管理的节点数量有限,可以组成控制器集群管理整个网络;有的控制器控制流量转发,有的控制器控制安全策略,还有的控制器控制虚拟网络的管理等等。

  SDN的发展也同样存在相当的不确定性。传统的南向接口OpenFlow会越来越复杂,现有网络设备无法简单升级支持;同时满足大流表的需求将大幅提高芯片成本;控制器发展不统一,各个厂家都在争夺自己在未来SDN网络的话语权,标准化进程缓慢,各种私有的协议加入将导致未来网络成为少数玩家的地盘。但我们同样相信,无论具体实现形式如何,SDN这种集中管控、灵活动态的网络部署必将成为未来的发展趋势。

  结束语

  我们很快就会看到,新的数据中心采用云计算技术对所有虚拟计算资源集中管理,Fabric架构的网络无缝实现了数据中心各个区域的互联,基于Overlay的二层网络实现了虚拟机的流畅迁移,集中化的SDN网络控制器提供对数据中心整网的监控,各种流量根据数据中心当前网络状况实时切换经由路径,偌大的数据中心内,寥寥数人便完成了全部的运维管理。我们相信,这就是将来的数据中心的工作情景。

  相信最后大家阅读完毕本篇文章后,学到了不少知识吧?大家私下还得多自学才能了解到更多的知识,当然如果大家还想要了解更多相关方面的详细内容的话呢,请登录课课家教育平台咨询哟~

赞(11)
踩(0)
分享到:
华为认证网络工程师 HCIE直播课视频教程