围绕数据中心聚合的宣传,以及选择FCoE还是iSCSI之间的斗争会使人忽略核心的问题:最终所有的存储都将通过生产环境的Ethernet网络传输,而工程师必须为这个转变做好准备。 听供应商的介绍会让人心烦意乱,因为他们讲的每件事都是从自己的角度出发看问题。Cisco Systems和Brocade是FCoE的主要推动者。而同时,Dell告诉它的客户在Ethernet上使用iSCSI是聚合发展方向。诸如Intel这样的芯片供应商和诸如QLogic和Emulex这样的网络适配器供应商则都积极准备,以支持企业选择的任意一种技术。 企业必须忽视供应商的宣传,相反要考虑他们现有的基础架构投入,以便决定选择哪种技术。他们也必须理解网络聚合可能是小规模地增长,不可能在短期内超过机架级的增长。 “一般当客户来找我们时,他们已经选择了一种聚合类型,而我们必须让他们了解到实际上还有很多不同的选择,并且它们不是互相排斥的,”大型系统集成商的数据中心实践技术解决方案架构师Joe Onisick说道。 为什么需要数据中心网络聚合? 随着10Gigabit Ethernet (GbE)、服务器虚拟化和其它技术的广泛应用,企业必须认真处理网络聚合,以便控制资金和运营花费,并降低复杂性。 “如果您在一个机架上部署了很多服务器,特别是VMware机架,那么您可能需要为每台服务器配备10条Gigabit Ethernet铜线连接和2条Fibre Channel连接,”位于田纳西州的连锁医院Wellmont Health System的技术总监Darren Ramsey说道。“假如您的机架上有10台服务器,那就需要120条电缆。这要耗费大量的人力,是非常不灵活的布线,并且会产生大量的热量。同时,交换机端口也不便宜。” 在他的数据中心中,Ramsey最近通过使用Cisco的Nexus线在8个虚拟化Dell服务器机架中引进了网络聚合。他将每台服务器上的10个NICS和2个主线适配器(HBA)合并为2个QLogic聚合网络适配器(CAN),从而为冗余的顶级机架Nexus 2232 Fabric Extenders提供2条10 GbE FCoE连接。全部共8对Nexus 2232 Fabric Extenders将上行流连接到2台冗余的Nexus 5020交换机上。存储和数据流量通过FCoE聚合到Nexus 5020上。这样,存储流量就可以返回到本地Fibre Channel,然后连接到存储区网络(SAN)中的一对Cisco MDS 9506 Director交换机上。生产数据流量会继续连接上行到Catalyst 6509交换机。 “FCoE优化并减少了我们所需的Fibre Channel端口数,因为所有的主机现在都直接在Nexus上运行,”Ramsey说道。“我们不再需要从服务器直接连接到MDS上。同时它还减少了每个机架的复杂性。当我们在每台服务器上使用2条10 Gigabit连接时,我们就能够在该设备上运行更多的虚拟机。” |