万兆以太网(10GbE)是下一代以太网。IEEE 802.3ae标准定义了802.3介质访问控制(MAC)在10Gbps速度下的工作,同时保留了802.3帧格式,包括最大/最小帧尺寸,所以万兆以太网支持在系统互连模型(OSI)第2层、第3层及更高层工作的所有网络服务,譬如虚拟局域网(VLAN)、生成树、多协议标记交换(MPLS)、服务质量(QoS)、VoIP和安全性等。
虽然面向万兆以太网的IEEE 802.3标准支持全双工和半双工,但只有提供全双工操作方式(因而避免了数据包冲突)的产品才在市场获得了成功。结果,有关方面决定万兆以太网只用全双工这种模式。正因为如此,万兆以太网的范围不受:只有传输和物理介质的物理特性了链的距离。
IEEE 802.3ae定义了两个不同的物理层(PHY)系列:局域网PHY通过光纤传送数据;广域网PHY添加了同步光纤网/同步数字体系(SONET/SDH)成帧子层,那样它就可以使用SONET进行传输。
万兆以太网标准(IEEE 802.3ae)早在2002年6月得到批准。万兆以太网(10GbE)的定位是作为局域网、城域网和广域网的一项高速网络连接技术,当时还被宣传成是促进IP存储广泛应用的一项关键技术。
每一代以太网扩展了前一代技术的功能,并且遵循可预测的成本/学习曲线:进入市场之初,价格高昂;但随着生产量增加,价格随之下跌;随着新的网络基础设施日渐普及,又成为大货。
最新一代以太网:1000Base-T即千兆以太网工作在已安装的5类铜线Gbps带宽。而万兆以太网延续了这条发展道:增加带宽,与广域网网上速度最快的技术(OC-192,速度高达9.5Gbps左右)相匹配,并且把本地以太网从局域网延伸到城域网和广域网。
10Gbps产品价格下跌是影响采用万兆局域网的一个重大因素。当万兆以太网每个端口的价格为7万美元(这指2002年和2003年市场上出现的第一批产品)时,用户所出的价格要比千兆以太网端口高出一大截。这种价格上的差异使得链聚合作为一种过渡的解决方案极具吸引力。万兆以太网要迅速发展,价格就得大幅下降。
在服务器内部,终结万兆以太网链给整个服务器架构带来了压力。2003年,如果一台运行Windows 2000的典型服务器的 I/O子系统采用运行速度为66MHz的PCI,有效带宽仅为350Mbps左右。
不过要让万兆以太网链达到饱和状态,单向就需要大约1.25Gbps的带宽,即总共2.5Gbps,这相当于PCI总线倍。
第三个问题涉及TCP/IP处理开销——许多人认为这将是基于千兆以太网的存储面临的问题,几乎每个人都认为在10Gbps速度下这更成问题。事明,对基于千兆以太网的iSCSI而言,TCP/IP卸载不是什么重大问题。如今的CPU有足够的性能提升空间,可以满足TCP/IP处理的需要,而不会影响应用性能,所以只有极少数部署的iSCSI使用了TCP/IP卸载硬件。如果在10Gbps速度下,情况就不会是这样,可能需要TCP/IP卸载引擎(TOE)解决方案。
第四个问题涉及主机操作系统对I/O请求的处理。如今,I/O流量在放到工作内存之前先缓存在内存中,然后写入到磁盘上。这通常需要好几次拷贝到内存的操作,每次都需要通过内存总线Gbps速度下,这些拷贝带来的影响可能会让内存总线难以招架。为了解决这个问题,互联网工程任务组(IETF)正在制订多项标准,有望减少内存拷贝次数,能够直接把数据放到内存中(譬如远程直接内存访问即RDMA)。万兆以太网服务器集群所需的高带宽、低时延需要这样的性能。
万兆以太网产品自2002年以来就已上市。最初的产品专注于交换机到交换机连接及服务器到服务器集群连接。如今,促进万兆以太网采用的因素包括:基于IP的语音和基于IP的存储(NAS和iSCSI)这些应用在许多企业迅速增加。
每个端口的价格一直在稳步下跌。到去年年底,一条10Gbps链可能比聚集多条1Gbps链更为划算。提到的另外三个问题方面也取得了重大进展。譬如说,如今服务器的众多高速I/O选项(如PCI-X和PCI-Express)使得10Gbps I/O连接更切合实际。
市场上出现了实现TCP/IP卸载机制的低成本芯片,这也使得TOE解决方案更具有吸引力。在软件方面,出现了几项用于TCP/IP卸载及加速的事实上的标准。这方面的一个例子是微软最近发布的Windows Server 2003 Scalable Networking Pack,该服务包实施了TCP Chimney(TCP/IP卸载架构)、Task Offload(校验和计算卸载)及Receive-Side Scaling(这让TCP可以接受可在多个处理器上运行的处理任务)。这一切都会对得到广泛支持的万兆以太网TOE解决方案的可用性带来积极影响。
最后,旨在实现使用万兆以太网的服务器集群机制的标准已在IETF内部取得了重大进展。这些协议(如DDR和RDMAP)预计会在不远的将来进入标准制订过程的最后阶段。
万兆以太网的出现对基于IP的存储的所有应用产生了影响,包括NAS、iSCSI以及通过广域网连接一个个孤立的光纤通道SAN。万兆以太网为这每一种协议提供了更大的性能提升空间。
不过,因为万兆以太网和iSCSI这两项标准前后出现相隔一年左右,所以它们经常作为相互依赖的技术连接起来——各自对另一方来说就是“杀手级应用”。不过,这其实是一种。
本机iSCSI磁盘阵列和IP SAN问世已有好几个年头。而IP SAN部署的数量已从2004年的大约2500个增加到了去年年底的22000个。迄今为止,所有这些基于iSCSI的SAN都采用万兆以太网,而且几乎全都在服务器端使用软件驱动程序。
IP SAN大多数部署在大企业的部门级,或者部署在中小企业的主数据中心。大多数是取代直接连接存储的“新部署的”SAN,特别是在由小型服务器组成的Windows。在这种下,有限的管理员支持、主机连接成本以及基础设施的复杂性都阻碍了光纤通道SAN的部署。
如今有些企业建有“纯以太网的数据中心”,所有存储流量使用千兆以太网用于NAS、SAN和数据中心之间的连接。
考虑到全球40%以上的存储系统仍采用直接连接方式,IP SAN有着进一步增长的广阔空间。而iSCSI不需要万兆以太网的额外带宽,就能成功地满足这个市场的需求。
人们普遍认为:选择基于iSCSI的SAN意味着你只好在性能方面做出。然而,如果iSCSI SAN使用标准的1Gbps以太网卡以及操作系统随带的免费的软件启动器(software initiator),就能为绝大部分企业应用提供可以接受的性能。
由2Gbps光纤通道连接的磁盘阵列其速度并不是1Gbps iSCSI阵列的2倍,4Gbps光纤通道阵列的速度也不是它的4倍。
企业战略集团(ESG)使用实际的应用工作负载进行了详细的性能比较测试,结果发现,2Gbps光纤通道解决方案提供的性能通常只比使用软件启动器的1Gbps iSCSI解决方案高出5%~15%。
人们有一种,以为存储性能与存储互连的带宽成正比。这好比一辆汽车在公上行驶。为公多划几条车道并不能让汽车跑得更快,除非这条堵塞现象很严重。即使是1Gbps的速度,还是有足够的带宽提供给大多数应用工作负载。
其他因素对磁盘阵列性能的影响要深远得多。磁盘的数量、类型和旋转速度带来的影响最大。譬如说,大型阵列提供的性能高于小型阵列;光纤通道驱动器提供的性能高于数量类似的ATA驱动器。阵列对数据放置进行优化以及将数据分布到尽可能多磁盘上的功能也对性能具有重大影响。与其他这些问题相比,互连带宽只是影响比较小的因素之一。
对iSCSI存储厂商进行的一项非正式调查表明,大多数厂商在去年交付具有万兆以太网连接选项的阵列(有些高端NAS厂商已经宣布了这项功能)。这种解决方案的主要目标在于支持数量众多的与万兆以太网连接的服务器。
这就可以部署规模极其庞大的基于iSCSI的IP SAN。万兆以太网还让iSCSI能够处能非常高的应用,这种应用需要低时延、高于1Gbps的存储带宽。
光纤通道在性能方面的优势(目前很明显)会逐渐消失。不过,即便在现在,说到决定部署光纤通道还是iSCSI,通常归结为这个问题:你是否已经拥有了光纤通道SAN基础设施?如果已经拥有这种设施,你可能会选择光纤通道。如果还没有这种设施,那么iSCSI可能颇具吸引力。
将来,所有IT组织都会在下一代数据中心的光纤通道网络架构方面面临决策。大多数组织最终会在数据通信基础设施中使用万兆以太网。到时候问题将成“我要不要统一使用某种互连技术用于我的下一代数据中心?还是部署多种网络来得比较合理?”
即使万兆以太网将来作为一种存储互连技术加以部署,这项技术也不是与存储有关,而是与IT基础设施有关。
如今,所有企业都把具有可扩展性的以太网基础设施看成是获得竞争优势的一件重要法宝。万兆以太网让IT组织能够扩展各自的以太网基础设施,从而应对数量越来越多的数据。
万兆以太网还让企业能够延伸高性能局域网,以便连接大都市区里面的诸多数据中心,不必向电信公司租用租金昂贵的线。
如今市场上已有万兆以太网解决方案,最近服务器、操作系统和I/O芯片组支持等方面的进步使得部署成了切合实际的事情。
万兆以太网(10GbE)标准得到批准后,三个特定的采用领域随之成为关注的重点:局域网、城域网和广域网。
在局域网,构建交换网络的一条基本原则就是,总是需要速度更快的一项技术来聚合多速度比较慢的连接。万兆以太网端口数量激增促使人们需要万兆以太网连接。说得更具体些,万兆以太网被认为是连接数据中心、企业网和大楼到大楼连接(使用单模光纤距离可达40千米)里面交换机之间高速链的互连技术,而且也是用于连接服务器集群的互连技术。
在城域网,万兆以太网使企业和服务提供商能够通过黑光纤(Dark Fibre)提供高性能连接和服务,成本却只有SONET等传统技术的一小部分,又没有协议转换和传输桥接带来的复杂性。实际上,一家组织的局域网可以延伸到大都市区。
在广域网,万兆以太网使服务提供商能够提供高性能、具有成本效益的链,使用以太网工具就很容易管理这些链。因为端点带宽经扩展后可以成为最高的广域网网带宽,这有望实现端到端万兆以太网操作。
万兆以太网标准(IEEE 802.3ae)早在2002年6月得到批准。万兆以太网(10GbE)的定位是作为局域网、城域网和广域网的一项高速网络连接技术,当时还被宣传成是促进IP存储广泛应用的一项关键技术。
每一代以太网扩展了前一代技术的功能,并且遵循可预测的成本/学习曲线:进入市场之初,价格高昂;但随着生产量增加,价格随之下跌;随着新的网络基础设施日渐普及,又成为大货。
最新一代以太网:1000Base-T即千兆以太网工作在已安装的5类铜线Gbps带宽。而万兆以太网延续了这条发展道:增加带宽,与广域网网上速度最快的技术(OC-192,速度高达9.5Gbps左右)相匹配,并且把本地以太网从局域网延伸到城域网和广域网。
10Gbps产品价格下跌是影响采用万兆局域网的一个重大因素。当万兆以太网每个端口的价格为7万美元(这指2002年和2003年市场上出现的第一批产品)时,用户所出的价格要比千兆以太网端口高出一大截。这种价格上的差异使得链聚合作为一种过渡的解决方案极具吸引力。万兆以太网要迅速发展,价格就得大幅下降。
在服务器内部,终结万兆以太网链给整个服务器架构带来了压力。2003年,如果一台运行Windows 2000的典型服务器的 I/O子系统采用运行速度为66MHz的PCI,有效带宽仅为350Mbps左右。
不过要让万兆以太网链达到饱和状态,单向就需要大约1.25Gbps的带宽,即总共2.5Gbps,这相当于PCI总线倍。
第三个问题涉及TCP/IP处理开销——许多人认为这将是基于千兆以太网的存储面临的问题,几乎每个人都认为在10Gbps速度下这更成问题。事明,对基于千兆以太网的iSCSI而言,TCP/IP卸载不是什么重大问题。如今的CPU有足够的性能提升空间,可以满足TCP/IP处理的需要,而不会影响应用性能,所以只有极少数部署的iSCSI使用了TCP/IP卸载硬件。如果在10Gbps速度下,情况就不会是这样,可能需要TCP/IP卸载引擎(TOE)解决方案。
第四个问题涉及主机操作系统对I/O请求的处理。如今,I/O流量在放到工作内存之前先缓存在内存中,然后写入到磁盘上。这通常需要好几次拷贝到内存的操作,每次都需要通过内存总线Gbps速度下,这些拷贝带来的影响可能会让内存总线难以招架。为了解决这个问题,互联网工程任务组(IETF)正在制订多项标准,有望减少内存拷贝次数,能够直接把数据放到内存中(譬如远程直接内存访问即RDMA)。万兆以太网服务器集群所需的高带宽、低时延需要这样的性能。
万兆以太网产品自2002年以来就已上市。最初的产品专注于交换机到交换机连接及服务器到服务器集群连接。如今,促进万兆以太网采用的因素包括:基于IP的语音和基于IP的存储(NAS和iSCSI)这些应用在许多企业迅速增加。
每个端口的价格一直在稳步下跌。到去年年底,一条10Gbps链可能比聚集多条1Gbps链更为划算。提到的另外三个问题方面也取得了重大进展。譬如说,如今服务器的众多高速I/O选项(如PCI-X和PCI-Express)使得10Gbps I/O连接更切合实际。
市场上出现了实现TCP/IP卸载机制的低成本芯片,这也使得TOE解决方案更具有吸引力。在软件方面,出现了几项用于TCP/IP卸载及加速的事实上的标准。这方面的一个例子是微软最近发布的Windows Server 2003 Scalable Networking Pack,该服务包实施了TCP Chimney(TCP/IP卸载架构)、Task Offload(校验和计算卸载)及Receive-Side Scaling(这让TCP可以接受可在多个处理器上运行的处理任务)。这一切都会对得到广泛支持的万兆以太网TOE解决方案的可用性带来积极影响。
最后,旨在实现使用万兆以太网的服务器集群机制的标准已在IETF内部取得了重大进展。这些协议(如DDR和RDMAP)预计会在不远的将来进入标准制订过程的最后阶段。
万兆以太网的出现对基于IP的存储的所有应用产生了影响,包括NAS、iSCSI以及通过广域网连接一个个孤立的光纤通道SAN。万兆以太网为这每一种协议提供了更大的性能提升空间。
不过,因为万兆以太网和iSCSI这两项标准前后出现相隔一年左右,所以它们经常作为相互依赖的技术连接起来——各自对另一方来说就是“杀手级应用”。不过,这其实是一种。
本机iSCSI磁盘阵列和IP SAN问世已有好几个年头。而IP SAN部署的数量已从2004年的大约2500个增加到了去年年底的22000个。迄今为止,所有这些基于iSCSI的SAN都采用万兆以太网,而且几乎全都在服务器端使用软件驱动程序。
IP SAN大多数部署在大企业的部门级,或者部署在中小企业的主数据中心。大多数是取代直接连接存储的“新部署的”SAN,特别是在由小型服务器组成的Windows。在这种下,有限的管理员支持、主机连接成本以及基础设施的复杂性都阻碍了光纤通道SAN的部署。
如今有些企业建有“纯以太网的数据中心”,所有存储流量使用千兆以太网用于NAS、SAN和数据中心之间的连接。
考虑到全球40%以上的存储系统仍采用直接连接方式,IP SAN有着进一步增长的广阔空间。而iSCSI不需要万兆以太网的额外带宽,就能成功地满足这个市场的需求。
人们普遍认为:选择基于iSCSI的SAN意味着你只好在性能方面做出。然而,如果iSCSI SAN使用标准的1Gbps以太网卡以及操作系统随带的免费的软件启动器(software initiator),就能为绝大部分企业应用提供可以接受的性能。
由2Gbps光纤通道连接的磁盘阵列其速度并不是1Gbps iSCSI阵列的2倍,4Gbps光纤通道阵列的速度也不是它的4倍。
企业战略集团(ESG)使用实际的应用工作负载进行了详细的性能比较测试,结果发现,2Gbps光纤通道解决方案提供的性能通常只比使用软件启动器的1Gbps iSCSI解决方案高出5%~15%。
人们有一种,以为存储性能与存储互连的带宽成正比。这好比一辆汽车在公上行驶。为公多划几条车道并不能让汽车跑得更快,除非这条堵塞现象很严重。即使是1Gbps的速度,还是有足够的带宽提供给大多数应用工作负载。
其他因素对磁盘阵列性能的影响要深远得多。磁盘的数量、类型和旋转速度带来的影响最大。譬如说,大型阵列提供的性能高于小型阵列;光纤通道驱动器提供的性能高于数量类似的ATA驱动器。阵列对数据放置进行优化以及将数据分布到尽可能多磁盘上的功能也对性能具有重大影响。与其他这些问题相比,互连带宽只是影响比较小的因素之一。
对iSCSI存储厂商进行的一项非正式调查表明,大多数厂商在去年交付具有万兆以太网连接选项的阵列(有些高端NAS厂商已经宣布了这项功能)。这种解决方案的主要目标在于支持数量众多的与万兆以太网连接的服务器。
这就可以部署规模极其庞大的基于iSCSI的IP SAN。万兆以太网还让iSCSI能够处能非常高的应用,这种应用需要低时延、高于1Gbps的存储带宽。
光纤通道在性能方面的优势(目前很明显)会逐渐消失。不过,即便在现在,说到决定部署光纤通道还是iSCSI,通常归结为这个问题:你是否已经拥有了光纤通道SAN基础设施?如果已经拥有这种设施,你可能会选择光纤通道。如果还没有这种设施,那么iSCSI可能颇具吸引力。
将来,所有IT组织都会在下一代数据中心的光纤通道网络架构方面面临决策。大多数组织最终会在数据通信基础设施中使用万兆以太网。到时候问题将成“我要不要统一使用某种互连技术用于我的下一代数据中心?还是部署多种网络来得比较合理?”
即使万兆以太网将来作为一种存储互连技术加以部署,这项技术也不是与存储有关,而是与IT基础设施有关。
如今,所有企业都把具有可扩展性的以太网基础设施看成是获得竞争优势的一件重要法宝。万兆以太网让IT组织能够扩展各自的以太网基础设施,从而应对数量越来越多的数据。
万兆以太网还让企业能够延伸高性能局域网,以便连接大都市区里面的诸多数据中心,不必向电信公司租用租金昂贵的线。
如今市场上已有万兆以太网解决方案,最近服务器、操作系统和I/O芯片组支持等方面的进步使得部署成了切合实际的事情。
IP存储一词通常用来指以某种方式使用标准以太网连接的存储区域网络(SAN)解决方案。这种解决方案通常属于两类中的一种:一类使用以太网链接,通过网关把光纤通道SAN互连起来;另一类是使用千兆以太网基础设施而不是光纤通道来构建SAN。
IP存储解决方案通常可以延伸及补充现有的SAN,或者在IT基础设施中仍以直接连接存储为主的部分,提供成本合理的新的SAN存储解决方案。
所有IP存储解决方案都有共同的好处:成熟、广为人知的技术,即插即用互操作性方面有着悠久历史;由于商品实现大众化,成本很低;迈向40Gb及更高速率的稳定线图;可靠、容错,还有内置的服务质量;可由传输,没有距离上的;灵活的供应及配置;一系列广泛的得到的管理工具;拥有丰富的知识和经验——每家IT组织都拥有专长。
结合起来,IP存储解决方案大大丰富了IT主管们可以选择的方案,从而解决数据不断增加带来的成本、可用性、性能和可管等问题,并且加快从昨天的直接连接存储架构向明天的网络存储模型转变的步伐。
在参与调查的用户中,使用NAS系统的用户仍占多数,达到了45%,使用IP SAN的用户占到25%,比FC SAN低了5%。
对于IP存储的了解方面,仅有10%的用户表示熟悉IP存储,但却有28%的用户表示对IP存储缺乏了解。其他用户表示,对IP存储仅仅了解一些。
调查中,72%的用户认为万兆以太网的投入商用对IP SAN的发展将起到推动作用,但仍有15%的用户持否定意见,其他用户则表示结果难以估计。
据估计,IP存储市场部署的IP SAN从2004年的2500个增加到了去年年底的1万个。预计这个市场会继续增长。
推动这种发展的几个因素包括:IT组织不断需要少花钱多办事,像减少资本成本、减少每TB数据的管理人员、降低复杂性等,加上数据不断增长、法规要求严格的数据保留方法,以及认识到在如今的24×7下连第2层应用系统也事关重大。这些因素影响着各种规模的企业,而大多数IT管理人员认识到,DAS架构根本满足不了如今这种商业的需要。
IP SAN最初往往部署在大企业的部门级。不过,正如下面几个例子表明,IP SAN的应用范围如今扩大到了中小企业。
Shiloh Industries是一家知名的汽车行业供应商。该公司需要在多个地方实施更有效的数据和灾难恢复系统,以便管理不断增长的存储资源、遏制磁带数量激增的现象、减少服务器替换成本。由于30台服务器运行不同的操作系统和应用软件,数据的惟一方法就是,每台服务器每天进行完全备份。
Shiloh决定采用虚拟化基础设施中的iSCSI SAN。该公司利用支持VMware虚拟服务器的EqualLogic IP SAN,构建了一套灵活的基础设施。Shiloh把应用软件运行在设在5台物理服务器上的30个虚拟服务器上,每台物理服务器对EqualLogic iSCSI SAN可实现高性能访问。
迄今为止,Shiloh已在主数据中心安装了两个EqualLogic PS200E,在位于密歇根的工厂安装了一个PS100E,还在不伦瑞克的灾难恢复站点安装了一个PS300E。
随着IP存储成为一种对Windows服务器而言切实可行的SAN解决方案,更多的人在采用iSCSI取代中小企业里面的DAS。
Fowler Contracting是北卡罗来纳州凯里一家总承包的工地开发及建筑公司,它在过去的三年是研究三角园发展最迅猛的私营公司之一。因而,它的存储需求也在迅速成倍增长。
由于Fowler的所有存储系统都放在几立服务器上,管理起来非常麻烦,数据可靠性也成了问题。加上公司迅速发展,Fowler知道自己需要更大的灵活性进行扩展,又不会导致停机时间。此外,该公司有满满两屋子的文件,需要转换成电子文件。一旦这项工作完成,人力资源和会计人员就需要能够快速、可靠地访问这些数据。
公司实施了由LeftHand公司的两个网络存储模块(NSM)组成的IP SAN,合并了三个地方的7台服务器,添加了1.6TB的存储容量。一些关键应用软件都迁移到了LeftHand SAN上,比如微软Exchange、SQL Server、Fowler的招标软件包、会计应用软件以及建筑设备的自动记录。另外迁移了建筑工地的数字地形建模所用的CAD文件,以便能够实时访问。包括数据迁移在内的整个安装过程仅仅用了4个小时。
对Fowler而言,高级配置是该解决方案的一个重要部分。集中备份过程则是大大节省时间的另一个方面。
Fowler的IT经理Scott Bowen说:“过去我们备份需要10个小时;有了IP SAN,时间缩短了80%。”从总部集中管理所有地方的功能是另一个重大优势。Bowen预计在不远的将来会另外购买两个NSM,采用远程拷贝以实现真正的远程恢复计划。这第二个系统将放在Fowler位于北卡罗来纳州罗利的地方,那样万一出现紧急事件,可确保全面冗余。
虽然大多数IP SAN取代了DAS架构,但IP SAN有时也会取代第一代(1Gbps)光纤通道SAN。这种情况下,SAN的生命周期通常已接近尽头,同时公司需要一种更具成本效益的解决方案,管理支持需求比较低,而且不需要2Gbps或者4Gbps光纤通道SAN具有的性能。
密歇根大学文学、科学和艺术学院是位于安阿伯的一家学术研究机构。来自70个部门的两万多名学生、教师和行政管理人员合作开发研究项目,因而生成海量数据。因为该大学是家公共机构,所以IT人员的预算很紧张,必须利用可靠而廉价的存储系统来满足研究人员的存储需求。
学院最终部署了Intransa公司的IP SAN,研究人员要是有需求,IT人员就可以为他们无缝配置存储资源。如今,研究人员在需要时可以自行添加存储容量。最终用户只要登录到网上,明确所需容量,加以命名,就可以开始使用。如今,Rolston对来自光纤通道SAN的存储资源进行配置的过程只需要几分钟,而过去需要几天甚至几周。
许多公司拥有大型、稳定的光纤通道SAN,但它们可能仍有许多比较小的“孤立”服务器,每个服务器都有各自的内部存储或者DAS。如果能找到一种成本合理的方式把这些服务器连接到SAN中,那么能够充分利用现有的SAN投资显然具有优势。
州斯波坎的斯波坎公立学区最近部署了Sanrad公司的V-Switch,这大大节省了成本,同时能满足存储容量不断增长的需求。
最初学区需要现有的光纤通道SAN增加存储容量,还要大幅节省SAN基础设施的总体拥有成本。第二个难题就是需要轻松管理数据的生命周期,并且根据数据的内在价值它们;必要时候,进行数据归档或者停用。第三个难题就是需要共享及控制对存储池的访问。学区首席网络管理员Mount知道,他可以找到成本较低的光纤通道SAN解决方案,不过他认为:从长远来看,改用基于iSCSI的解决方案会更具成本效益,况且还有其他优点。除了成本外,虚拟化功能是最重要的一个衡量标准。斯波坎学区最终选择了Sanrad公司的V-Switch 3000 iSCSI交换机。
Mount声称:“现在我们能够更有效地利用存储空间,网络存储成本也减少至实施IP SAN之前时候的十分之一。”
UIT BS3000 iSCSI磁盘阵列是创新科存储技术有限公司针对国内广电行业中小型非线性编辑制作和媒资管理系统网络的应用特点而专门设计开发的,具有高带宽、高可用性、性能稳定可靠、投资少、性价比高,安装调试和管理简单方便等特点。
BS3000控制器模块在进行读写访问时,单个控制器可达到60000IOPS。每个控制器对外提供3个千兆以太网接口。
邦诺存储SMI-1000 网络存储系统是基于万兆以太网的iSCSI/NAS海量存储设备。SMI-1000可提供万兆的传输带宽和500000IOPS的处理能力,可用于银行、电信、大型网站、、公共图书馆等网络的数据中心。SMI-1000直接在标准的以太网络上运行,和现有的以太网络基础设施和已有的网络管理软件兼容,提供了一个全面的高性能网络存储解决方案。
NetApp FAS3000系列为面向企业数据管理难题的用户提供了更多的选择。凭借出色的性能以及可扩展性,NetApp FAS3000系列中端产品的价格提供了高端企业存储和数据管理产品才具有的价值。NetApp FAS3000系列提供集成的块级和文件级数据访问,支持文件服务、FC SAN、IP SAN和多种网络配置,同时能够灵活地实现无缝、无差错的升级。FAS3000进一步提高了针对小数据卷的磁盘性能,充分扩大了Data ONTAP 7G内置的FlexVol功能的使用价值。陈良宇是谁的儿子