时间:2022-08-14 22:29:31
开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇数据中心存储方案,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。
挖掘数据价值
数据是新经济中的通行货币,但大多数企业未能释放它们的全部价值。HGST委托开展的一项调查显示,98%参与调查的首席信息官和IT决策者相信,如果企业能够以最佳方式存储、访问和分析所有数据,它们就能创造价值。但65%的中国被调查者承认,他们并未存储所有数据,也未能释放数据的全部价值。调查结果还显示,企业越来越注重利用分析工具和存储解决方案,并关注新兴的动态归档和云计算方面的市场机遇。
HGST亚太区副总裁James Ho表示:“数据已成为新经济的货币,而从数据中挖掘价值的能力将是企业的终极竞争力。明智的企业正利用数据增进了解、推动预测和提出新见解。存储、保留、访问和转换海量数据所带来的挑战已使得存储成为数据中心的核心任务。”
在当今数字化的世界中,对数据的使用已从简单的交易记录转变为利用数据增进理解、推动预测、进行实时决策以及获得新见解――所有这些都为企业提供了终极竞争优势。随着数据使用和消费方式转变的加速,必须对数据中心进行优化,以使其一方面可以从新的数据源中获取或联接至更多的数据,另一方面又能保持数据的长期可访问性。数据在被不断地创建和复制,数据总量每两年就会翻一番,这使得存储、保留、访问和转换海量数据成为数据中心的关键所在。存储解决方案必须更快捷、更灵活、可访问性更强,同时拥有成本也要更低。HGST正在提供这样的解决方案,帮助世界释放数据的力量。
瞄准动态归档
虽然深度归档依然是一种“一次写入”并希望“永不读取”的运作方式,但高速增长的应用和使用案例正在催生各种新的长期数据存储模式。要求能够随机访问历史或长尾数据的社交媒体、执行标准和分析等应用给大容量数据中心存储提出了新的要求。除了大规模的可扩展性,这些环境还要求极低的成本和极高的效率。过去,磁带提供了一种低成本大容量存储方式,但却无法让用户快速访问随机数据。主流的磁盘存储方式能够满足性能要求,但却无法满足PB级存储环境对成本的要求。
为了满足市场对动态归档解决方案日益增长的需求,HGST正通过创新技术打造可满足成本、性能、效率和可靠性要求的动态归档平台。此类新型数据存储解决方案旨在实现10倍于传统企业数据中心解决方案的存储密度和功率效率,以及5倍于常用可扩展型云计算数据中心解决方案的存储密度和功率效率。HGST的动态归档平台的目标是在单个数据中心机架中实现超过10PB的容量。该平台利用业内领先的设备容量和更多的设备关联点提升密度、性能、效率和可靠性,从而提供每TB最低的价格和功率以及最高的机架容量。用户可以针对不同存储架构配置动态归档平台,包括面向公共和私有云数据中心的可扩展型对象存储解决方案。
HGST已开始向战略合作伙伴交付动态归档平台的样品,并将于2015年初提供全面的产品细节和规格信息。
推出PCIe SSD
HGST宣布推出全新兼容NVMe标准的Ultrastar SN100 PCIe SSD固态硬盘产品系列。该产品系列集成了东芝的MLC NAND闪存并配以简化的PCIe SSD系统,以HGST知名的品质和可靠性,HGST此款 NVMe PCIe SSD产品系列将掀起应用加速的新浪潮。针对PCIe SSD的标准化NVMe协议使得系统具有更广泛的互通性,部署也变得更加简单,从而实现了较低的拥有成本。
针对应用、数据库加速、虚拟化和大数据分析,Ultrastar SN100 SSD将以半高半长的插卡形式,采用标准的2.5英寸硬盘规格,容量可高达业内领先的3.2TB。对于新增的NAND闪存耐久性和可靠性,Ultrastar SN100 SSD系列将使用专门针对东芝MLC NAND闪存进行优化的HGST CellCare NAND管理技术。
为进一步加速服务器端闪存解决方案的创新,通过增值软件与PCIe SSD NAND闪存管理进行对接,HGST将继续兼容NVMe的扩展功能,以提供更高级别的应用集成。利用HGST的这些扩展功能,软件与固态硬盘之间能够更全面的进行交互,从而实现数据管理的优化。与缺乏此功能的解决方案相比,该系列产品可以实现高出两倍的性能和耐用性。
HGST Ultrastar SN100 SSD系列产品现已可以开始提供样品。
与英特尔续签开发协议
作为与英特尔公司在串行连接SCSI(SAS)固态硬盘(SSD)方面的合作协议的一部分,HGST将继续使用英特尔NAND闪存技术。自2008年以来,双方合作的产品将HGST的企业级存储经验与英特尔的NAND闪存技术相结合,为HGST获得SAS SSD硬盘领域的领先地位奠定了基础。
数据中心虚拟化就是打破原始物理结构之间的隔断,将物理资源转变为逻辑上可直接调控管理的资源。在完成虚拟化建设后,预计可将各种硬件资源透明地运行在各种物理平台上,资源的管理都将按照逻辑方式进行,实现资源的自动化分配。依据虚拟化的理论指导,高校数据中心虚拟化分为:服务器虚拟化、网络虚拟化和存储虚拟化三个环节。服务器虚拟化的核心思想,就是一种能够通过区分资源的优先次序,并随时随地能将服务器资源分配给最需要它们的工作负载以简化管理和提高效率,继而减少为单个工作负载峰值而储备的资源的方法[2"]。通过虚拟化技术将物理硬件和操作系统分离,使得多个具有不同操作系统的虚拟服务器可以独立运行在同一台物理服务器上,最大化的利用硬件资源。首先对服务器虚拟化的各项技术进行分析,再根据高校数据中心的实际情况给出服务器虚拟化的规划和方案,接着来完成服务器虚拟化的部署,并利用VMware Center Client来监控和管理各个虚拟机的运行情况。
服务器虚拟化的核心思想,就是一种能够通过区分资源的优先次序,并随时随地能将服务器资源分配给最需要它们的工作负载以简化管理和提高效率,继而减少为单个工作负载峰值而储备的资源的方法。通过虚拟化技术将物理硬件和操作系统分离,使得多个具有不同操作系统的虚拟服务器可以独立运行在同一台物理服务器上,最大化的利用硬件资源。
首先需要对即将布设虚拟化的服务器硬件资源进行统计,数据中心现有各类服务器若干台,运行着校内各种应用和业务系统。利用VMware vSphere对服务器进行整合,最大限度的利用现有的服务器资源,对其进行了各项评估,包括CPU、内存和磁盘容量等,结果表明现有的各个服务器资源利用率很低,造成大量资源被浪费。而现有的部分老旧服务器并不适合构建VMware虚拟化平台,但是可以用作数据存储。
VMware vSphere本身即包含有一组虚拟网络元素(vNetwork),该组元素可以让处于数据中心的各个虚拟机能够像在物理环境中一样进行网络互联。在这其中就包含有虚拟网络接口卡(vNIC)、虚拟标准交换机(vSwitch)、虚拟分布式交换机(vDS)和端口组(Port Group)。
根据高校数据中心的的实际情况来完成网络虚拟化的部署,通过两台vSwitch将虚拟机接入到虚拟网络以实现各虚拟机之间的网络通信和物理机之间的交互功能。
数据中心存储系统虚拟化就是让前端主机脱离对后端存储设备的依赖,通过中间的虚拟层作为存储服务的基础,从而带来更高的资源利用率、无缝数据迁移等效益。利用VMware vSphere技术可从根本上更好地管理虚拟存储架构,提高存储资源利用率和灵活性,减少管理开销和延长应用程序正常运行时间。
VMware vSphere存储架构由各种抽象层组成,这些抽象层隐藏并管理物理存储子系统之间的复杂性和差异。在VMware vSphere中,ESX/ESXi存储器指的是多种物理存储系统(本地或联网)上的存储空间,主机使用该存储器存储虚拟机磁盘,分为本地存储器和联网存储器。其中,联网存储器由ESX主机用于远程存储虚拟机文件的外部存储系统组成。通常主机通过高速存储器网络访问这些系统。网络存储设备将被共享。网络存储设备上的数据存储可同时由多个主机来访问。
数据中心存储系统虚拟化就是让前端主机脱离对后端存储设备的依赖,通过中间的虚拟层作为存储服务的基础,从而带来更高的资源利用率、无缝数据迁移等效益。利用VMware vSphere技术可从根本上更好地管理虚拟存储架构,提高存储资源利用率和灵活性,减少管理开销和延长应用程序正常运行时间。
存储的虚拟化,就是在抽象化底层的存储设备后,继而进行统一调控和管理,屏蔽存储设备的硬件信息,而只保留其统一的逻辑特性,从而实现了存储系统集中统一的管理。通过应用存储虚拟化,可以有效解决高校数据中心存储空间利用率过低的问题,在部署存储虚拟化之后,可以方便的弹性扩容,大幅提升硬件使用率,其实现技术主要基于主机的虚拟化存储、基于存储设备的虚拟化和基于存储网络的存储虚拟化三种,接下来就此三个技术方法分别作进一步讨论。
方法一:基于主机的虚拟化存储
基于主机的虚拟化存储技术的实现主要依赖于主机操作系统下逻辑卷的管理软件或在服务器上完成的,经过虚拟化的存储空间可以跨越多个异构的磁盘阵列,通过将多个逻辑卷进行统一管理调配,屏蔽上层应用对物理磁盘的管理。
由于无需另外添置硬件设备,基于主机的虚拟化存储成本较低,能够提升主机的处理器资源利用率,但灵活性较差。因此对于信息系统规模较大,使用的主机类型和应用程序种类较多,且对系统性能和稳定性要求较高的高校来说,并不适合此技术。
方法二:基于存储设备的虚拟化
基于存储设备的虚拟化技术依赖于提供相关功能的存储控制器,对所管理的存储提供虚拟化。通过?用基于存储设备的虚拟化技术,可以使多个主机服务器访问同一个磁盘阵列。
基于存储设备的虚拟化技术较易实现,易管理,适用于数据量较小,存储设备单一环境,而对于数据量大,存储设备种类多,并要求能进行跨设备、跨地域的数据整合和共享的高校数据中心来说,并不适合此技术。
“我们新增加了一套新的业务系统,又得购买新的服务器、新的存储设备了!”这是记者在采访一些企业CIO时经常听到的声音。这对于一些业务发展快速、经常需要进行IT系统更新以支持业务发展的企业而言,并不是一件可以轻松应对的挑战。特别是一些要求严格的企业,可能还需要保持IT系统7×24小时无间断的操作。
“现在的业务环境给IT带来了巨大的压力,IT几乎必须是即时响应以前从未遇到过的极具挑战性的需求。因此,必须尽快转换思路,更好地分配财政和运营资源,以使IT可以快速地适应和推动变化,从而创造价值。”一位企业负责人这样说道。而这些严格的要求,在传统的数据中心存储架构下几乎很难实现。
“过去十年甚至十五年,数据中心的架构大多都是竖井型。企业需要上一个应用系统时,通常的做法是购买服务器、存储设备,组成这个应用系统所需的设备。并且,数据和应用也都是捆绑在一起的,A应用的数据只能提供给A应用使用,B应用的数据也只能给B应用使用。而很多IT管理者对于数据的流向和使用其实是无法管理的,更多时候,IT管理者充当的是‘设备管理者’的角色。”NetApp公司大中华区技术及专业服务部总监何英华说道。
关注存储虚拟化
但现在,随着企业用户业务的不断发展以及其所面临的市场竞争的日益激烈,这种竖井式的IT架构已经无法满足用户的需求。用户需要更加灵活、更加动态、更加智能的IT架构。
“随着企业的IT架构越来越复杂,导致了企业的IT架构和数据中心中存在着许多孤岛,每个孤岛都要求独立的管理和保护策略,以及复杂的管理流程。这使存储资源不能得到有效的利用,而且浪费了能源和成本。面对这种情况,数据中心的整合尤其是存储设备的整合成为企业IT建设的新需求。”业内资深人士,曾在多家国际知名IT公司担任技术工作的林志伟如是分析说。
确实,我们可以看到,在传统的建设模式中,存储通常是被当作孤岛来管理的,在需要扩展的时候只是简单地添加新的存储子系统,而不是充分发挥现有资源的潜在能力,这种方式导致存储资源的利用率通常只有35%至50%。此外,由于管理存储资源所需要的成本是购买这些资源的三到五倍,为了创建一个高效率的环境,管理员必须掌握各种工具和娴熟的技巧,才能对大型、复杂和异构的环境实施管理。这种日益增长的存储空间和随之而来的管理压力已经成为了CIO们的心病。
正是在这一背景之下,虚拟化开始在企业数据中心内盛行。尤其是服务器的虚拟化,已经成为很多用户关注的重心。但是,对于数据中心的另一重要基础设施,存储设备的虚拟化,却有所忽略。“存储虚拟化可以在优化资产利用、提升数据移动性的同时,帮助企业大幅提升整体架构的效率并极大节约成本。”林振伟说道。
其实,最近几年,用户对于数据中心存储设备的虚拟化,已经开始逐步重视。普华优科公司总经理陈建忠向记者介绍说,在他们和行业用户的接触中,用户对于存储虚拟化已经开始普遍接受,并且开始愿意为此投入越来越多的资金。“存储虚拟化是通过在物理或虚拟服务器与现有物理存储之间创建虚拟抽象层来实现的。一旦执行了存储虚拟化,数据的物理位置就变得透明了。存储资源的供给可以跨越所有存储厂商的硬件,以相同的方式完成。存储可以进行分级,数据可以在分级存储中自动存储,同时,在应用程序不停机的情况下,存储虚拟化不仅仅提供硬件资源的集中管理,还提供各种数据保护功能,实现业务的不间断运行。在实际应用中,很多时候在更换存储基础设施时,存储设备必须离线,否则会导致业务间断。而存储虚拟化技术可以允许故障设备在线更换,保障数据不间断读取。”
让数据层独立
不过,虽然存储虚拟化在物理上解决了企业在数据存储方面遇到的难题。但从逻辑上来看,数据仍然和应用捆绑在一起,无法实现数据的灵活和持久应用。何英华认为,“用户需要更快地实现IT应用的部署,需要数据的使用时间更加持久,甚至从不间断。”
那么,企业如何才能满足这些要求呢?
“必须将应用层和数据层分离开来,让数据成为单独的一层而存在,这样数据就不会再局限于某一个应用,而是被所有的应用所共享。”何英华介绍说,正是出于这一原因,NetApp公司在今年推出全新的敏睿架构,目的是使企业的存储设备更加的灵活、透明、持久。“敏睿架构将是数据中心存储未来的发展趋势。”
NetApp产品运营高级副总裁 Jay Kidd则认为,“敏睿数据基础架构是继统一架构之后的又一大飞跃,其敏捷性远远超出了目前的限制,并且以行业做梦都无法想到的规模实现了数据管理优化。应该没有客户可以接受无法应对当前业务范围、规模和复杂性的解决方案。性能和容量可以通过将任意大小的多个系统构成集群得以扩展,而不必对传统整个系统进行投资。通过消除将应用程序与特定阵列相关联的基础架构孤岛,存储可以成为基础架构层,从而实现无中断操作和持续数据访问。执行滚动升级或计划维护时根本无需停机,因而可实现真正的 IT 敏捷性。”
通过NetApp所的敏睿数据基础架构内容来看,其中最吸引人的莫过于实现了智能数据管理。通过采用敏睿数据基础架构,数据存储可以实现智能化和自我感知,从而能够即时响应大量瞬息万变的业务需求。”
据介绍,敏睿数据基础架构的智能数据管理主要分为几个部分。
首先是实现了服务自动化和分析。“自管理存储通过各种控制、自动执行和分析数据功能提供对存储基础架构的端到端可见性,从而可以无缝地扩展容量,而无需增加人员。”何英华介绍道。
其次,在高速发展的时代里控制成本意味着存储效率不只是一项功能,而是一个必须满足的要求,从而才能利用每个可能的机会在降低成本的同时保持或提高 IT 性能。“另外,持续应用程序可用性要求提供数据驱动型实时响应。必须优化数据存储,才能实现敏捷性、低成本和效率最大化。而敏睿数据基础架构中的自管理数据驱动型服务层允许混合介质存储池将‘热’数据保存在闪存驱动器上,将活动性较低的数据保存在SATA驱动器上。”何英华说。
关键词 数据存储;容灾;主数据中心
中图分类号:TP311 文献标识码:A 文章编号:1671—7597(2013)041-047-02
随着计算机和网络应用的日益普及,各个单位和个人都在不停地创建和使用着各种信息。如何更有效的管理、保护和共享企业信息已为各行业的发展提出了新的挑战。在传统的分布式处理模式下,所有的信息分散在内部各个服务器上,信息的管理,信息的可用性受到了很大的限制,不能充分发挥应有的作用,而且系统的升级和新业务的开发部署也都不能及时响应技术和市场快速变化的要求,构建企业信息基础设施则更是集中处理模式的重中之重。
容灾是一个古老而又崭新的话题,由于容灾系统成本较高,在过去是金融、电信等大型企业的专宠,其他行业多持观望态度。美国911事件的发生扭转了人们对数据容灾备份系统的认识,紧随其后的东南亚铺天盖地的海啸又使容灾系统在国内外各行业受到空前的关注。“养兵千日,用兵一时”是通知系统的鲜明特点,自然灾害和突发事件的突如其来,瞬间就可能导致信息系统的彻底瘫痪,造成灾难性的后果。
大屯矿区网络自1999年开始建造,已有11年历程,经多次优化扩容,现网络已形成规模。其中,办公网络用户为4000多,ADSL、小区宽带用户16000余户,在网络上运行着一些重要的业务系统,如:OA协同办公系统、人力资源管理系统、物资供应管理系统、综合电信管理平台系统、公司档案管理系统等。随着业务系统的不断发展,数据中心对核心应用的连续性和高可用性的要求越来越高,原有的服务器直连存储架构难以满足业务数据激增, 分散存储的数据效率低、扩展性差、管理困难、安全性低。各类信息系统的广泛应用使得各项工作对于计算机系统的依靠越来越紧密,对于数据的安全性提出了更高的要求,构建数据存储容灾系统已成为一个迫切需要解决的问题。
1 大屯矿区数据保护现状
目前,大屯矿区在数据存储、备份方面,使用IBM System Storage TS3200磁带库和IBM System Storage DS4700磁盘阵列(9.6T),采用FC-SAN存储技术,建立了主数据中心。主要存储OA办公管理系统、物资供应管理系统、公司档案管理系统和综合电信管理平台系统的应用数据。已存在一套数据备份软件Veritas,可以对核心数据进行时间点的备份。但是对现有的数据中心中的核心存储设备平台还有可以优化的余地,在未来的规划中还可以实现对存储资源的统一管理和规划。
2 设计目标
在现有主数据中心的基础上,新建数据容灾备份系统,容灾备份中心与主数据中心距离1.5 km,两地之间有单模光缆连接(光缆配线为PC-FC)。
目前IBM刀片系统中的应用系统,通过光纤通道、SAN交换机和一些相关硬件,实现应用系统正常运行时,将数据同时写向主数据中心和容灾备份数据中心的存储设备,并保证二者的实时一致性。当主数据中心存储设备发生故障时,应用系统能够快速地自动切换到容灾备份数据中心,从而保证数据的完整性和业务连续性。当主数据中心系统恢复后,主数据中心的存储设备会向容灾备份数据中心存储设备进行数据重新同步,然后应用切换回主数据中心;使用备份管理软件,实现数据的增量备份和定期的全部备份。
3 方案设计
3.1 部署Storage Foundation软件
通过在即将放置到主中心和灾备中心的Oracle服务器上部署Storage Foundation软件,建立良好的存储虚拟化基础,能够灵活的适应未来的系统扩容要求,也为接下来的数据复制工作做好了准备。
3.2 数据镜像
大屯公司是利用灾备和主中心之间的光纤线路,构成基于DWDM的低延时SAN环境。直接应用Volume Manager在两个中心的服务器之间实现存储镜像。
如上图所示,主数据中心的服务器在存储是将会同时将数据写入到两个中心的存储中。由于镜像的实现是依托于底层的Volume,所有数据存储的过程对于应用来说都是透明的。20 KM的光纤线路会带来一些数据延时。所以,我们可以通过设置Volume Manager的读取策略来指定主中心的服务器从本地的磁盘阵列上读取数据,加快数据查询的速度。
上述方式够实现在主数据中心和灾备中心之间的数据容灾。在此的项目中,数据发生物理错误的可能性基本上分为两种,数据中心的存储系统出现物理错误,如硬盘问题、光纤卡问题、光纤连接问题或光纤较换机问题等,另外一种就是整个数据中心出现故障。
对于第一种情况,通过此方案的设计可以完全避免,由于通过Volume Manager在数据中心和备份中心建立了镜像机制,即数据中心和备份中心的存储系统中只要有一个系统完好,数据中心的系统就不受任何影响。如数据中心的磁盘阵列出现问题,数据中心的主机自动将数据中心的磁盘标志为失败,全部的数据读写只在备份中心的磁盘阵列完成,
对于另外一种错误,即数据中心发生重大灾难,全部设备都不能正常工作,这就需要将系统切换到备份中心,由于在备份中心的磁盘阵列上有和数据中心完全一样的数据,在备份中心只需要将数据import到备份中心的主机上就可以将数据中心的数据完全接管。
4 具体实施
1)EMC存储划分规划。
①办公自动化(OA)系统4 T。
②电信综合信息管理平台1 T。
③供应处管理系统500 G。
④档案管理系统1 T。
2)搭建EMC 存储并接入cisco光纤交换机。
3)停止现有应用系统,将原来使用在刀片光纤交换机上的IBM存储挂到cisco光纤交换机上。刀片光纤交换机和cisco光纤交换机之间的级联需要业务中断3小时。
4)在备份服务器上部署Storage Foundation软件,部署完成后,需要对存储进行识别,此时业务需要中断2个小时左右。同时各系统需要重新启动。
5)配置Storage Foundation软件,将原有IBM DS4700上的数据同步到新的EMC存储上,此时业务可正常进行,无需停机。
6)同步完毕后,将4700存储停机,只连接EMC存储,查询数据完成性。
7)数据完整后,将老的4700存储搬迁到异地的7楼机房。
8)搭建cisco光纤交换机,挂接4700。
9)在主机房备份服务器上识别远端4700设备,并做同步。
10)做主备存储上做断线切换演戏。验证容灾可用性。
5 实施效果
通过本项目的实施解决了用户对于集中存储和数据容灾的需求,经过半年的试运行,系统运行状况良好,性能稳定,该项目的投运为提升大屯矿区信息化水平起到了积极的作用,极大降低了数据中心业务在各种不可预料灾难发生时的损失,保证业务系统的7*24小时不间断运转;最大限度的保护了OA办公管理系统、物资供应管理系统、公司档案管理系统、综合电信管理平台系统等重要业务应用系统数据的实时性,完整性和一致性;为公司计算机应用系统的正常升级,更换部件提供了不停机环境,也为未来的异地容灾打下了一个良好基础。
基金项目
江苏省科技成果转化资金项目(BA2010058)
参考文献
[1]中华人民共和国国家统计局.2008中国统计年鉴[M].北京:中国统计出版社,2008.
[2]国家统计局能源统计司,国家能源局综合司.2008中国能源统计年鉴[M].北京:中国统计出版社,2008.
[3]英国石油公司.世界能源统计2009[EB/OL].[2010-03-02].http:///statisticalreview.
[4]孙继平.煤矿安全生产监控与通信[M].北京:煤炭工业出版社,2009.
[5]孙继平.煤矿监控系统手册[M].北京:煤炭工业出版社,2007(6).
关键词:存储虚拟化 双活 容灾 高可用 存储资源集中管理
1、行业发展趋势
数字化医院是我国现代医疗发展的趋势。“数字化医院”是指将先进的网络及数字技术应用于医院及相关医疗工作, 实现医院内部医疗和管理信息的数字化采集、存储、传输及后处理,以及各项业务流程数字化运作的医院信息体系。“数字化医院”是由数字化医疗设备、计算机网络平台和医院业务软件所组成的三位一体的综合信息系统。数字化医院工程体现了现代信息技术在医疗卫生领域的充分应用,有助于医院实现资源整合、流程优化,降低运行成本,提高服务质量、工作效率和管理水平。
数字化将推动医院集团化、区域化、并改变医院原有的工作模式。建立区域性的影像中心(病理、CT、MRI等)实现医学图像网络传输。建立区域性的中心实验室实现检查结果网上传输,节约资源。信息中心社会化,医院不再建立网络,服务器中心,将采用租用电信运营商网络线路,建立区域性的数据中心、服务器中心和数据仓库。实现医学文献资料的共享,解决各医院网络建设重复、利用率低、资源浪费的缺陷。区域性的各类医学服务中心的建立,将使卫生资源获得最大程度利用。
信息系统建设作为医疗行业信息化的核心内容,在近几年的发展中经历了不同的阶段。随着国家新医改方案的实施,对国内传统医院信息系统发展带来前所未有的机遇与挑战,现有的信息系统已难以全面适应医院的需求。因此,一个全新的数字化医院解决方案是当前国内医院信息化行业的迫切需求。
在医院信息系统建设过程中,HIS系统、EMR系统和全院级PACS系统的医院信息系统数字化应用整合是最大的重点。建立数字化医院是医院管理信息系统发展的必然, 也是医院现代化管理和高效运行的需要。
2、需求简述
随着医疗服务业务的进一步发展,医疗信息系统要求提供7*24小时的高可用,业务运行不允许中断,系统一旦停机会给医院造成巨大的损失。
为了应对系统停机、业务中断等风险,多数医院建设了容灾数据中心,传统的以数据复制技术为基础的多数据中心架构均以灾难情况下的站点整体切换为第一目标,这种技术强调灾难情况下的站点恢复能力,但往往由于底层数据复制配置、网络环境、相互依存服务等方面的限制,无法顺利实现单个业务应用系统或主机的透明切换和迁移。
另一方面容灾站点的服务器、存储、网络等资源长期处于闲置状态,并且长期占用机房场地并耗费大量能源,所以大部分医院并没有建立一个高效的容灾机制,一旦应用系统或机房硬件出现故障,将会造成业务中断,影响医院运营。
在灾难备份与恢复行业国家标准《信息系统灾难恢复规范》中,将信息系统的灾难恢复能力划分为了6级,明确了RTO/RPO与灾难恢复能力等级的关系,在最高级(第6级)中要求RPO=0,RTO在分钟级内。
对于此次数据中心的建设有如下需求:
1. 在新一期的数据中心建设中,我们希望能够实现一个健壮的本地容灾架构。当单台存储发生故障时,能够使生产和容灾机房的存储实现零中断切换,提高数据应用高可用性,进而保证业务的连续性。
2. 现有的核心业务对数据在线访问要求较高,包括HIS,PACS等关键的在线业务系统。新系统架构的高可用性必须满足7×24的运行需求。
3. 充分利旧当前的两台CX4-240。整合现有异构存储资源,建立统一数据管理平台。
4. 进一步保障数据的高可用性,实现数据连续保护,数据丢失容忍量(RPO)为0,业务恢复时间(RTO)提升为为0,即无任何业务中断时间。
5. 此次部署的数据中心所承载的业务重要性很高,对于核心存储产品的稳定性、访问效率、易用性、可扩展性要求较高,因此产品的成熟度、市场品牌、售后维护水平尤为重要。
6. 产品在部署过程中的实施水平直接关系到整个项目的成败,实施团队的人员配备也是考虑的重要因素;
3、建设原则
本着技术先进性、可扩充性、高可靠性、高可用性、成熟性、可管理性的设计原则和总体设计思想,集合了业界优秀技术设计理念和产品,借鉴了行业众多成功案例和实际经验,设计了整体的解决方案。
技术先进性:系统设计应采用当前先进而成熟的技术,不仅可以满足本期工程的需求,也应把握未来的发展方向。新系统具有充分的处理能力,满足日常高峰交易需求和各类业务结算需求。
可扩充性:在系统设计时应充分考虑可扩充性,从而确保新功能、新业务的增加在原有的系统平台上扩展和实现。对于业务发展很快的客户,这点尤其重要。
高可靠性:存储平台具有高可靠性,支持服务器平台的高可用性集群技术;具备先进的容灾的设计;充分保证系统的高扩展能力和高容错能力,具有通道负载自动均衡能力和存储系统性能调节能力,提供极为充分的可靠性各项指标设计。
高可用性:在不停机情况下,实现不停机扩容、维护、升级等服务,提高性能以满足新的业务需求。具备7×24×365连续工作的能力,系统的可用性应大于99.999%。在自动化管理软件支持下可以实现磁盘数据的在线(不停机)备份。
市场成熟度:应尽量选用全球排名靠前的存储厂商产品,并且需要具有原厂研发能力。对于OEM产品,厂商的支持力度有限。
平台兼容性:平台能支持包括:AIX,Solaris,HP-UX,Linux等主流操作系统平台;支持包括:Oracle,DB2,Sybase等主流数据库平台。
可实施性:选用成熟的技术,具有良好的技术可实施性。 4、架构思路
综合考虑了多种技术因素后,我们考虑采用EMC原厂研发的技术产品,希望不仅保障日常业务系统的高效运作,同时使得LIS,PACS业务数据库和未来的其他数据能够得到更进一步的持续性数据保护。
在本方案中, 采用vplex存储虚拟化技术架构,并选用企业级存储系统VNX5500,利旧原有的CX4-240系列存储,达到两台新旧存储设备之间互为备份的健壮架构,进而达到容灾要求。
通过VPLEX的存储虚拟化功能,两台存储设备互为备份,两台设备上的生产数据通过VPLEX进行镜像,然后呈现给客户机使用。对于客户机来说,完全不需要改变原有的使用模式,每一个IO写入VPLEX镜像卷的时候,均同时写入了两台生产存储系统,保证两个存储上的数据完全一致。而当两台存储设备中任意一台损坏时,对于客户机的业务连续性是完全没有影响的,仍然正常运行的存储设备能够完全支撑起业务应用。当故障存储恢复后,VPLEX会自动将数据进行同步。这样的架构充分保证了本项目的建设目标――RPO/RTO=0。
考虑到这次规划建设方案的重要程度非常高,在整个规划实施过程中,我们透过专业的原厂咨询,并成立甲乙双方的实施团队进行容灾/数据迁移等操作的评估、实施,全面保障业务系统的生产要求。
5、方案
新生产数据中心的架构如下:
如图所示,我们在该架构中为番禺中心医院客户配置了如下企业级产品:
1. 新购一台企业级核心存储系统EMC VNX5500,配置24GB缓存,可用容量完全匹配于当前的CX4-240。利用其高端存储的特点,大幅提升HIS、PACS等核心业务应用的性能。
2. 采用EMC原厂研发的VPLEX存储虚拟化设备,将CX4-240和新购的VNX5500连接起来,对其上的数据卷进行虚拟化镜像,呈现出统一的虚拟数据卷给主机访问。
3. 为消除VPLEX设备的单点故障,采用双VPLEX架构,以达到核心设备物理容灾的效果。
4. 光纤交换机产品可继续使用客户原有的交换机产品,建议端口全部激活(可用端口至少24口)。
6、技术分析
本架构规划方案,具有如下的优势:
> 容灾方案的通用性
在当前,客户主要通过MV/S的方式进行同步数据保护,考虑到MirrorView功能的侧重点,可以达到的功能有限。
而此次VPLEX数据整合方案是针对数据卷进行镜像,因此不仅仅能够全面胜任现有的数据库数据,在未来的其他数据类型也能得到同样及时的复制。同时,未来增加新的存储设备时,也可以非常便捷的挂载在VPLEX下,进行统一控管。
> 存储虚拟化平台的集中管理性
利用存储虚拟化技术,整合现有不同品牌的存储为一个数据存储池,将分散的存储处理能力和空间加以利用,保护原有资源,建立统一的数据管理平台。
> 维护的便利性
对于一个容灾系统,日常的维护和演练是比较繁复的,当灾难发生时的操作更加关键和重要。使用VPLEX的解决方案,极大的降低了系统管理员日常维护中的工作量,而当存储灾难发生时,也能够实现零停机时间的切换,不需要管理员的紧张操作。这样,即屏蔽了可能出现的操作失误,也极大降低了管理员日常工作压力,使之能够将工作精力投入到更重要的业务中。
另外,当需要对VPLEX的部署进行变更(增、删、改)时,也只需要简单的点击和操作(即可以通过命令行也可以通过GUI界面操作)即可完成。
> 安全可靠性
与主机无关的高可靠性,数据复制过程中,不影响业务主机的性能和稳定运行。
> 灾备自身系统实施及恢复的便利(简易)性
VPLEX支持 WEB 管理,图形化管理,不需要复杂的配置。在首次实施成功后,管理员只需要进行简单的鼠标点击就可以轻松完成策略的更改或保护卷的更改。
> 相关故障的自恢复故障报警功能
在如底层磁盘故障、链路故障、整个存储系统故障等相关因素在恢复正常后,VPLEX设备能够自动恢复数据同步,保持数据的复制。另外,VPLEX设备自身具有完善的日志和报警机制,减轻管理员的负担。
7、实施及演练思路
通过周密的计划和部署,能够将因上线而造成的业务停顿降至最低,预计的停机时间在1.5小时~2小时。
1. 上线前的准备工作
2. 正式上线的工作
3. 上线后的数据同步
4.环境检查及后继跟进
参考文献:
1、 VSPEX SERVER VIRTUALIZATION SOLUTION http:///collateral/software/technical-documentation/h10672-vspex-vi-ra-v250.pdf
在基于磁盘阵列的数据复制技术中,又分为同步数据复制和异步数据复制两类,下面是对这两种技术的简要介绍。
1.同步数据复制
同步数据复制简单地说就是生产端磁盘阵列和灾备端磁盘阵列数据基本一致(RPO≈0)。
同步数据复制过程的每一次写操作均分为4个步骤,其中第2步和第3步是整个写操作中延迟最大的部分,它与数据传输链路的带宽和距离有紧密的联系,如果这两部分延迟过大,超过应用系统所能容忍的极限,则将导致写操作失败。
所以,同步数据复制技术主要应用于同城容灾系统,也就是生产中心与灾备中心之间的距离不超过100公里,最好在60公里以内,数据传输链路最好选择裸光纤或DWDM。
2.异步数据复制
由于同步数据复制在传输距离和传输链路上有比较严格的要求,无法满足更多用户的要求,所以各个厂商又提出了异步数据复制的概念。
异步数据复制过程同样有4个步骤,但是异步数据复制中,写操作是在生产端立即完成,数据传输过程由磁盘阵列负责,与主机和应用系统无关。这就意味着生产中心与灾备中心之间的数据传输链路可以灵活选择(主要是根据RPO),距离也可以更长。异步数据复制技术是第一代技术,也称之为“推数据”的方式。日立数据系统公司在2004年9月就已经推出了第二代异步数据复制技术,也称之为“拉数据”的方式,本文稍后会对其作详细介绍。
通过将同步和异步数据复制技术进行整合,存储厂商推出了目前最为可靠、安全系数最高的容灾系统,即三数据中心容灾系统。
三数据中心容灾其实并非一个全新的概念,自2005年起在全球范围内就已经有应用。
随着用户对容灾系统可靠性要求的不断提升,传统的两个数据中心的容灾方案已经无法满足用户的进一步需求。存储厂商通过将基于两个数据中心的同步复制技术和异步复制技术进行整合,推出了目前最为可靠、安全系数最高的三数据中心容灾架构。
根据所采用技术的不同,三数据中心容灾又包括三种实现方式。
1.级联方式的解决方案。
我们以A代表生产中心,B代表同城灾备中心,C则代表远程灾备中心。该方式下,A把数据同步复制到B,B再把数据异步复制到C;如果B站点出现问题,那么A与C之间就要进行切换,因此该容灾方式不能完全保证业务的实时连续性。
2.Multi-target并发方式的三数据中心解决方案。
我们同样以A代表生产中心,B代表同城灾备中心,C为远程灾备中心。A把数据同步复制到B,同时异步复制到C。这种方式是B和C之间没有联系,一旦A出现灾难,B与C之间要重新建立连接,导致B和C之间要进行数据初始化复制,需要大量的时间,而且对数据传输链路带宽的要求也非常大,而且在B与C进行数据初始化复制时,如果B再发生灾难,则C上的数据将不可用,最终导致应用系统无法进行切换,数据全部丢失。
3.采用Delta Resync技术的的三数据中心解决方案。
我们同样以A代表生产中心,B代表同城灾备中心,C为远程灾备中心。A把数据同步复制到B,同时异步复制到C,B和C之间通过异步复制的方式增加了一条备用的链路。当A出现灾难,B与C之间要启动备用链路,B只需要将差量数据复制给C即可,不需要进行数据初始化复制。这种方式能够在较短的时间内将B和C之间的数据进行同步,而且在较短的时间内又实现了B和C之间的容灾。。日立数据系统于一年前率先推出该技术,其关键点在于它实现了B与C之间的差量备份。在这种容灾方式下,任意两个站点之间都可以互为容灾备份,不会有数据丢失,因而实现了真正意义上的三个站点的完全容灾,为用户确保100%的业务连续性,是当前最高级别的容灾方案。
中国国际电子商务中心(China International Electronic Commerce Center,简称CIECC)就是采用了这种先进的三数据容灾方案。
链 接
独特的异步复制技术
日立数据系统Delta Resync三数据中心容灾采用了Hitachi Universal Replicator(通用复制软件,HUT),同城和跨异地复制的完美结合对于更多的企业和应用而言都是非常经济实用的。HUR是一种先进的复制软件,它能以异步方式复制USP或外部连接至USP的其他厂商存储系统上的数据。HUR区别其他复制技术的独特及先进之处在于,它不是将数据从生产中心推向远程备份中心,而是将其吸拉到灾备中心。HUR软件具有最佳性能、基于磁盘的日志功能等多种高性能应用,主数据中心的生产数据卷可通过该软件被复制到远程数据中心的另一个USP上。
关键词:云数据中心 虚拟化 存储
中图分类号:TP393.08 文献标识码:A 文章编号:1672-3791(2017)06(c)-0018-02
1 信息技术发展趋势
随着网络技术的不断进步,信息技术也随着网络技术的发展到了全新的阶段,人工智能、云计算、大数据、物联网、移动互联等新技术开始涌现并逐渐走向成熟,日益改变着教育信息化发展过程,在Web 2.0不断延伸的时代,从数字空间正一步一步延伸到了物理空间,逐渐改变着人类的思维方式、社会生活、经济发展、社会组织与运作模式;信息系统作为公共的、开放的、共享的系统逐渐成为常态,信息系统的对外开放带来了规模效应、大数据积累以及用户的不断增加和集聚,而用户数量的增加又实现了信息的广泛传播与分享,使得数据中心相关的应用、管理等技术得到了促进和发展。
2 基于Web2.0的新一代数字化校园
高校的数字化校园建设开始进入Web 2.0时代,学校也从教育管理信息化向整个教育体系的信息化转变,服务对象也拓展到教学、科研、文化传承各领域和社会服务,其目标主要是为学校人才培养提供服务,通过高校信息技术手段来提高学校将办学优势转化为人才培养优势的能力,通过教育信息化实现教育的现代化。Web 2.0为知识的积累、组织、传播和创新服务,为师生搭建发现知识、存储知识、组织知识、交流知识、传播知识的数据平台。通过教育信息化云平台,利用信息技术为师生提供资源存储、信息查询、账目支付、知识拓展、位置服务等基础信息技术服务。然而,云计算也决不是简单地将用户原有的IT资源集中在一起就可以实现Web 2.0等资源,方便了师生,降低了管理难度。云计算作为一种新型服务计算模式,能够把信息技术中的基础设施中的存储资源、计算资源、传输资源以及应用资源以服务的形式提供给用户,同时作为一种全新的基础架构数据资源的管理方法,能够把大量的、高度虚拟化的数据资源集中起来,组成一个庞大的资源池。在建设云数据中心的过程中要达到这些特征,高校首先在建设初期需要投入加大的财力,建设存储池、数据交换池、计算池,只有上规模,才能有高的效率,降低管理成本,实现快速的可伸缩性。
3 校园云实施方案
校园云数据中心建设需要认真考虑以下一些问题:资源配置管理、故障管理、服务质量评价、云安全利用、规模与成本的平衡、基于云服务的数字校园应用建设模式。全新的网络架构、存储和虚拟化技术,将数据计算、存储及数据交换整合在一起,采用32路刀箱服务器代替独立服务器,采用存储SAN和NAS混合架构,构成私有云数据中心,把高校大量虚拟化的数据资源放入私有云中,组成一个庞大的数据资源池,以服务方式为师生提供资源。利用刀片服务器系统,采用灵活集中并且合理搭配的存储解决方案和虚拟化技术,将各部门分散的资源,统一集中在学校构建的数据中心虚拟云计算环境中。确保学校的投入能不断地促进为教学、科研、社会服务的能力,进而促进学校教学、科研、管理、师生生活的现代化。
该校选用的设备参数配置情况如下。
数据中心刀片服务器计算池:即刀箱内配置12个刀片服务器节点模块,每节点配置4颗Intel至强E7-2860十核CPU;配置DD3内存256 GB。数据中心交换节点设备:配置4台统一交换机作为计算节点、存储、网络的纽带,通过交换节点将计算、网络、存储融合。SAN模式存储架构:使用2台16口带有8 GB光纤模块的交换机作为高速SAN模式架构网络,并配全16个8 GB短波模块。分布式虚拟交换软件:配置不少于16个CPU的许可。数据中心存储池:配置了两个NAS架构的控制器,带有8个8 Gb光纤通道接口,采用因特尔四核处理器,主频>2.3 GHz;内存配置>32 GB,每个控制器配置2个10 Gb端口,磁盘接口大于4个6 GB四通道SAS磁盘接口,最大可扩展硬盘数量>250个;配置了1T、15 000转SAS高速硬盘18个,2 TB低速NL-SAS磁盘70个,100 G企业级闪盘5个,总存储容量大于160 T。虚拟机与链路负载均衡:防止数据在单一通道的拥挤,提供一套完整的负载均衡设备,实现对出口链路的负载均衡,做到能均衡的分担数据流量,防止拥塞发生,支持所有基于TCP/IP协议的服务器负载均衡;云管理平台软件:为校园云计算数据中心设计的管理平台可以提供对云数据中心体系架构中的硬件及软件的访问,实现对策略、状态监控、故障检测、信息审核及数据统计收集等的管理。
通过对云计算数据中心考察、论证、选型、建设、运行、测试后,我们认为:
(1)云算环境下数据中心的资源是高度虚拟化的,对资源的分配进行动态部署,云计算管理平台对云软硬件资源的合理调配,从根本上解决了资源池的管理问题,通过对网络应用资源的集中和整合,为下一步的智慧校园建设创造了良好的条件。
(2)在云计算环境下,虚拟化后其组件是多对多的相互关联的关系。当某个地方出了问题或故障,将不可避免地影响到其他组件的运行。作为高度集成的云计算数据中心,故障的定位是云计算环境下数据中心运行和管理面临的重要挑战。
(3)云计算时代的信息技术资源是利用互联网络以服务的形式提供给师生,利用云管理平台可以快速地为师生配置“一台”具有完全管理权限的虚拟服务器,并能在几分钟内利用操作系统及配置的定制模板就能把标准的操作系统及配置安装完成,根据用户要求,做个性化处理就能提供给用户。
(4)云计算时代其安全性带来的安全问题比以往任何时候更为突出,特别是无隔离的虚拟服务器之间的ARP病毒的侵害尤为突出,这种问题可以通过对虚机更细致的Vlan划分来解决;应用多活云计算数据中心架构的冗余建设方案,实现跨数据中心的应用在线移动、维护、自然灾害避免及迁移关键应用等,但这样将增加建设成本。
(5)云时代的数据中心,资源实现了高度集成,服务自动化、平台化,云数据中心在前期的建设中,建设成本可能大于普通数据中心建设的成本,考虑到长期的使用、扩展、维护、管理等综合因素,要比传统数据中心应用来的快捷、方便、智能、高效。
(6)利用云数据中心的高度虚拟化,整合高校现有的教学资源到统一云计算平台中,可以轻松实现校园的统一身份认证、统一信息门户、统一数据交换和共享数据库的建设目标。为关键业务应用程序动态分配资源,实现了内存的动态共享使用,使得内存分配可以大于实际的硬件内存容量,提高了资源利用率和设备应用效率。利用云管理平台平衡各CPU处理能力,提高内存的共享能力,合理划分虚拟机的密度及合理配置虚拟机资源,能够最大限度地获得云计算数据中心的资源优势。在统一了网络接入层,以同样的方式管理虚拟机链路与物理服务器链路时,将获得更出色的服务质量。
从学校建设完成云数据中心以来,从运维服务和技术支持来看,包括信息技术基础设施建设和优化、业务支持与业务系统建设、数据支持与服务、信息技术运行环境维护、用户服务支持等内容。校园云数据中心是高校信息技术服务的组成部分,校园云数据中心面对学校的部门、院系和全校师生提供服务到各学校之间实现云资源的共享,云时代,随着校园云数据中心技术的完善和不断更新,其安全性也面临着新的机遇和挑战,从国家教育层面来看,将学校所有资源放到公共云,实现各学校之间资源的共建、共维、共用、共享,这是一个非常理想的目标。现阶段高校逐步推进私有云,以云的方式为社会提供相应的信息技术服务,各高校之间在达到一定的私有云规模后,利用自己特有的资源,以云的方式实现资源的共享并可以为服务社会。
参考文献
【关键词】云计算;煤炭;规划;设计
1前言
“十二五”时期是我国煤炭工业提高科学化发展水平,加大结构调整力度,转变发展方式的关键时期,信息化、数字化、物联网等新技术在智慧矿山建设上得到了快速的应用和发展。近年来,云计算技术的蓬勃发展为整个IT行业带来了巨大变革,以传统方式构建的数据中心已经不能满足现在新形势下日益增长的高性能及高性价比需求,我国各大型煤炭行业集团公司信息化水平不断提高,对高密度服务器及高度自动化管理系统的需求不断增长,建设云有必要建设以云计算技术为基础的新一代数据中心。
2云数据中心的概念及关键技术
云数据中心是指以客户为中心,以服务为导向,基于高效、低能耗的IT与网络基础架构,利用云计算技术,自动化地按需提供各类云计算服务的新一代数据中心。云数据中心对传统数据中心进行了升级,代表了未来有关数据中心技术的演进方向。
2.1云数据中心的特点
(1)资源池化。云数据中心的资源池由其IT资源和网络资源构成,功能是去耦合逻辑资源和物理资源,用户不需要关注底层的物理设备,仅对逻辑资源进行相关操作就可以了。(2)智能高效。云数据中心通过统一的管理平台对资源监控、部署与调度、业务生命周期进行自动化的智能管理,集群设备成本比较低,利用虚拟化、分布式计算技术,高效实现对数据的承载、存储和处理。(3)面向服务。云数据中心建立以服务为导向的整体架构,由提供资源转为提供服务,用户选择服务时通过服务目录,对底层实际资源透明。(4)按需供给。云数据中心的底层基础架构以资源池化为基础实现资源的动态伸缩,计费功能细粒化。另外根据上层应用的发展趋势,智能地规划底层物理设备的容量。(5)绿色低碳。云数据中心通过虚拟化绿色节能技术和模块化的设计,可以降低设备的投入成本与运营维护成本实现PUE(PowerUsageEffectiveness)值的绿色低碳运营。
2.2云数据中心的关键技术
云数据中心的关键技术主要是在IT基础设施的虚拟化技术。虚拟化的定义是指计算原件不是在真实的基础上运行而是在虚拟的基础上,是为了简化管理、优化资源设计的解决方案,其本质是实现底层物理设备与逻辑资源的去耦合。(1)服务器虚拟化。虚拟化可以使彼此独立的操作系统和应用软件在相同的一套硬件上运行,同质、高效、资源受控是服务器虚拟化的主要特点。为了提高资源配置的灵活性,根据需求弹性虚拟化后的虚拟机可以增加或减少对其分配的硬件资源;为了提高资源利用率,降低能耗,可以同时在单个物理服务器上运行多个虚拟机;整个系统的硬件配置、操作系统和应用通过虚拟化技术封装在文件里,可以快速部署系统、软件和备份系统,系统的可靠性和扩展性强,在不同服务器上动态迁移时业务不中断。(2)存储虚拟化。通过虚拟化技术对存储服务或存储系统的内部功能进行抽象、隔离或隐藏,分离存储或数据的管理与网络资源、服务器、应用的管理,在系统的多个层面可以实现存储虚拟化,比如通过建立类似HSM(分级存储管理)系统,一起解决对系统异构问题。(3)网络虚拟化。以前传统的虚拟专用网是通过VPN或VLAN的方式在公用网络上建立的,近年来,“多对一”特征的计算虚拟化对现有网络提出了和底层虚拟机相感知、相适配的新要求,使传统的网络具备了大二层网络、虚拟交换机、虚拟网卡以及虚拟化动态感知的功能。
3云数据中心网络规划与设计
随着我国煤炭行业两化融合工作的推广,信息化建设作为促进煤炭企业安全高效发展的重点工程来抓,近年来,信息技术已初步应用于矿井安全、生产、经营管理等各业务领域,国内给大型煤炭集团本着“总体规划、分步实施、重点突破、务求实效”的工作方针,着力将公司信息化建设向信息扩展、高度集成、综合应用、自动控制、预测预报、智能决策的方向全面发展。现以我国某大型煤炭集团总部业务应用的需求为例,对其数据中心网络进行重新规划与设计,按照功能将划分为七大区:核心业务交换区、核心业务区、办公区、互联网接入区、运维管理区、广域网接入区、外联业务区。二级板块及其下属子公司可参考建立符合自身情况的局域网络。核心区提供各分区模块互连;运维管理区是企业的IT运营中心;外联业务区是企业对外业务、互联网业务部署区域。数据中心网络如下图(图1)。
4云数据中心数据安全规划与设计
4.1数据存储方式
集团数据存储量巨大,生产数据、安全数据、业务数据以及测试数据等需要进行频繁的快速读写,为保证这种应用的需求,该集团希望在数据中心的数据存储方式上既要保证存储的可扩展性还要保证数据的快速访问,同时也要考虑对新服务器的快速部署,数据中心存储方式设计为IPSAN的存储方式。数据中心数据采取的存储方式主要有DAS、NAS、SAN三种,根据集团公司对数据存储的要求,采取SAN的存储方式。SAN是存储区域网络(StorageAreaNetwork),是将服务器与一个或多个网络存储设备通过专用高速网络连接起来,采用数据块方式进行数据存储,因此其数据存储速度比DAS、NAS快。SAN主要有IPSAN和FCSAN两种形式(分别使用IP和光纤通道)。光纤通道是一种高性能、高成本技术,可以为网络存储用户提供高速、高可靠性及安全稳定的传输,实现不同主机互连、企业之间共享存储系统。IPSAN继承了FCSAN技术的优点,并且通过IP,利用廉价的以太网设备,如就交换机、路由器、线缆实现低风险、低成本的SAN存储。ISCSI是实现IPSAN的最重要的技术,是运行在TCP/IP之上的块模块协议,因此它可将IP网络和块模块的优势很好的结合起来,且使IPSAN的成本低于FCSAN。所以,数据中心建设设计为IPSAN的存储方式。
4.2两地三中心容灾备份
为增强该集团业务应用系统、重要数据的可用性,抵抗灾难发生时带来的风险,集团公司按照国家的要求需要建设两地三中心的容灾备份方案。两地三中心是指主数据中心、同城灾备及异地灾备中心。两地三中心机房为业务应用系统提供基础配套设施,数据中心架构采取的网络互联拓扑方案如下图(图2)。本地主数据中心通过双机热备、本地备份、CDP这些在线/近线的数据保护手段完成机房内事件的灾备。同城灾备中心是指在一个城市中部署的灾备中心,为了保证业务的连续性,对集团公司的数据在同一个城市进行实时备份和业务倒换。同城实时数据备份和业务倒换可以保证灾备中心数据和主数据中心数据完全一致,数据保护级别达到最高,对核心和关键业务尤其适用,如RPO、RTO要求接近于零的业务应用。异地灾备中心是在灾害地质半径之外较远的城市部署的灾备中心,能消除地震、异常天气等灾害对存储业务数据的破坏,构建异地灾备系统可以采用MSTP、WDM等技术。异地灾备系统采用两套设备和主备路由保护等物理隔离方式,可以实现业务网络、核心单板“双重”保护,确保异地灾备网络的私有性和安全性。
5结语
数据中心是安全生产、经营管理等数据大集中而形成的集成IT应用环境,是各种业务的提供中心,是企业信息化建设的基础。云计算技术能极大地提高网络工作效率、企业安全生产管理水平,在煤炭集团企业应用前景十分广泛,公司在对云数据中心部署实施应用的同时,还要加强对安全的管理,避免云计算环境中的各种风险。
参考文献:
[1]黄传河.网络规划设计师教程[M].北京:清华大学出版社,2009.
[2]全国计算机专业技术资格考试办公室.2012年网络规划设计师试题.
[3]郭春柱.网络规划设计师软考辅导[M].北京:机械工业出版社,2013.
作为云计算发展中的一个重要组成,桌面云的概念正在迅速传播,并且正成为后PC时展的一个强大推动力。据相关调查显示,在私有云类型的选择上,桌面云的受欢迎程度仅次于云存储,34.38%的受访者表示该公司已经部署或计划部署桌面云,这意味着国内的桌面云市场将迎来一个较高的增长期。
这里有朵“桌面云”
桌面虚拟化是支持企业级实现桌面系统的远程动态访问与数据中心统一托管的技术。通过后台服务器统一存储每台终端的桌面镜像,由终端计算机或者瘦客户端连入云桌面服务器来打开个人虚拟云桌面,通过虚拟云桌面来进行工作。一个形象的类比,就是今天,我们可以通过任何设备、在任何地点,任何时间访问在网络上的我们的邮件系统,或者个人桌面;而未来我们可以通过任何设备,在任何地点,任何时间访问在网络上的属于我们个人的桌面系统。
业内专家普遍认为,由于具有高安全性、易管理性、绿色节能等特点,桌面虚拟化和桌面云具有广泛的应用场景。例如,需要高度安全和知识产权保护的研机构;需要严格控制移动办公和设备兼容接入的企业;以及呼叫中心、客服中心等任务集中、需要提高带宽利用率和实现快速部署的企业。因此,这两年国内的桌面云落地案例渐渐多了起来。例如IBM为陕西金钼集团和华星光电成功部署桌面云,华为部署了全球规模最大的桌面云,中兴的桌面云不仅为自己的员工服务,也向一些中小企业提供服务等等。而思杰亦表示去年该公司的桌面虚拟化业务增长将近了一倍。
通常桌面虚拟化技术具备如下特点:
更灵活的访问和使用:终端使用不局限于公司或者桌面pc,使用人员可以在家、机场等任意地点通过网络访问到公司内部的个人桌面进行个人办公。对于IT管理人员来讲也无需对繁杂的问题进行逐一排查,只需在机房中就可以对虚拟桌面遇到的问题进行排查,减少运维人员的工作量,提高了办公效率。
更广泛与简化的终端设备支持:通过使用桌面虚拟化,所有的计算过程和数据存储都在云端服务器来完成,对于终端来讲只需提供显示、输入、输出等动作既可以对远程虚拟桌面进行操作,这样就可以支持更多的终端设备来完成工作。
终端设备采购、维护成本大大降低:这种IT架构的简化,带来的直接好处就是终端设备的采购成本降低,通过瘦客户端作为桌面载体其成本比标准pc便宜的多,同时对于硬件设备的生命周期来讲,计算性能由云端服务器来进行决定,终端决定性不大,这就确定了瘦客户端的生命周期会更长与传统pc终端。
集中管理、统一配置,使用安全:由于所有的数据都是集中存储在企业数据中心,提高数据的集中应用,管理员可以在数据中心进行对所有桌面和应用进行统一配置和管理。例如系统升级、应用安装等。避免了传统由于终端分布造成的管理困难和成本高昂。由于传递的只是最终运行图像,所有的数据和计算都发生在数据中心,则机密数据和信息不需要通过网络传递,增加了安全性,另外这些数据也可以通过配置不允许下载到客户端,保证用户不会带走、传播机密信息。
安全仍是首要顾虑
针对上述特点不难发现,桌面虚拟化带来低成本,高效率的同时,依旧存在传统的信息存储、传输和使用过程中的安全风险问题。虚拟化终端使用过程中,由于账户成为了控制资源是否允许使用的唯一控制方式,通过身份冒用可以越权使用非授权信息,造成信息的泄密。采用虚拟化技术的云终端,数据统一归档存储在核心存储设备上,数据集中存储后,敏感数据均存储在服务器上(云端),存在非授权使用和非法访问等安全隐患。
在虚拟化的IT构架下,企业内部不通过本地进行数据存储和调用,统一将数据存储在云端进行存储,这种情况下,减少了数据在存储层面造成的数据泄露风险,但是增加了数据的内部泄密情况的发生。同时通过统一桌面云进行后台存储和管理,无法通过传统交换机方式实现VLAN的逻辑划分,对于部门之间或者工作组之间的隔离无法完成。同时,网络作为一个开放性的交互手段,数据交互存在很大的便利性,同时对于数据的外泄也是一个巨大的风险点。尽管桌面虚拟化技术以爆炸式速度席卷全世界,但维护虚拟环境安全的技术却严重滞后,这对企业数据安全提出了更高的要求。
如何安全地走下去
尽管桌面虚拟化技术以爆炸式速度席卷全世界,但维护虚拟环境安全的技术却严重滞后,这对企业数据安全提出了更高的要求。虚拟化安全问题早已经引起安全厂商的重视,相关的产品及解决方案也渐渐涌现,安全厂商与虚拟化厂商联手开展合作的新闻也时有耳闻。例如,VMword2011大会上,思科与VMware展示了多项最新合作成果,其中面向Nexus1000V的虚拟ASA防火墙可进一步增强多租户云基础设施的安全性。该防火墙还将与VMware vCloud Director相集成。今年4月,赛门铁克和VMware共同宣布推出五项最新的集成VMware云基础架构套件的安全解决方案。随后,趋势科技亦专为虚拟化环境设计的恶意软件防护解决方案DeepSecurity8.0。趋势科技宣称该软件可为从虚拟化桌面、实体服务器、虚拟服务器到云端服务器的动态数据中心内的所有系统提供安全防护。
明朝万达针对桌面虚拟化在使用的过程中身份认证、数据统一云端存储、移动存储介质使用、云桌面数据外带等使用场景中的风险点,结合Chinasec(安元)数据安全产品,推出Chinasec(安元)桌面云数据安全解决方案:
通过桌面虚拟镜像数据加密功能,解决云端数据集中存储带来的管理员优先访问权与虚拟机逃逸带来的隐患,防止桌面云使用者的私有数据泄密。结合PKI技术的双因子云终端身份认证,避免云终端身份冒认使用风险,细粒度的访问控制提升远程使用云终端的安全性。
企业的数字化转型是一场持久战,也是一场具有转折意义的颠覆之战。以前那种以技术为核心、孤岛式、铁板一块的IT构建和应用模式,在云计算、大数据、移动互联等新的需求推动下,必然走向以开放、横向扩展、弹性部署、灵活应用为基本特征的以客户为中心的模式。这一转变的难度在于,改变的不仅仅是计算、存储、网络等局部或个别组件,而是整个基础架构的根基都要推倒重来。这不仅仅是一个技术问题,还涉及人的思想观念、应用负载甚至商业模式的转变。
领先一步的厂商早就开始动作,VMware大力倡导软件定义数据中心,EMC致力于现代化数据中心的变革,NetApp专门为新一代数据中心设计存储……随着云计算技术的逐步渗透,每个人心中都在憧憬、描绘下一代数据中心的蓝图。
过去两年,很多人都在谈“软件定义,硬件重构”,并把这8个字当成数据中心架构变革和创新的基本脉络。随着新技术不断走向成熟,这8个字的内涵也更加清晰和丰富。软件定义意味着必须从客户和业务的角度出发,倒推数据中心基础架构和模型,所有功能由软件定义,硬件架构要全面满足应用的需求;硬件重构表明,原来垂直扩展,为每个应用单独建立一套系统的模式已经成了瓶颈,新的硬件平台应该是融合的、横向扩展的、开放的,能够更好地适应云计算的需求。
都是为了下一代数据中心
IDC的数据显示,2019年,86%的工作负载要在云数据中心进行处理;2020年,全球云计算市场的规模将达到2000亿美元。下一代数据中心主要是满足云计算的需求。
两三年前就已经有人下了这样的论断:下一代数据中心将是全闪存的数据中心。闪存成了高性能的最佳代言人。高性能固然重要,但下一代数据中心只是速度快还远远不够,还必须具备可控、可扩展……
NetApp提出了下一代数据中心的五大架构原则:横向扩展、性能保障、自动化管理、数据保证、全局效率。NetApp下一代数据中心及联盟合作伙伴副总裁Tim Pitcher表示:“下一代数据中心设计将在数据中心框架的每一层贯彻实施五大架构原则。这一方法将影响支持整个数据中心堆栈的软件、流程和人员,而以往的技术将无力支持下一代数据中心。”
回顾数据中心的演进历程,目前大多数企业已经基本完成了数据中心资源的整合和虚拟化,现在正处在从虚拟化向自动化,以及管理编排过渡的重要时期。曾经有很多用户不明白虚拟化和云计算之间的本质区别在哪里。简单说,就差在了自动化和编排的能力,而下一代数据中心的主要创新点也集中这些方面。下一代数据中心基础架构一定是一个可编程的架构,基础架构即代码,实现业务与运营的统一。
“考虑到下一代数据中心应当具备的能力,我们设计了NetApp SolidFire,用来交付云计算的能力。” Tim Pitcher表示,“NetApp SolidFire凭借新型的功能,可以助力数据中心用户更快、更安全、更灵活、更经济高效地部署新应用程序。”
不要把SolidFire和全闪存划等号
在记者看来,NetApp是把全新的SolidFire产品当成了进入下一代数据中心市场的敲门砖。
NetApp是一个"历史包袱"挺重的存储厂商。为什么这么说?虽然NetApp在存储方面的创新不胜枚举,但是很多人一提起NetApp,还是会老调重弹――NetApp是一个NAS厂商。NetApp一直在努力地进行业务转型,从一个存储设备提供商转型为数据管理厂商。Data Fabric战略的提出对于NetApp来说是一个崭新的起点,让它在混合云时代刚刚开启时便抢得了先机。抓住了数据、混合云这两个点,就已经能够确保NetApp站在当今潮流的前端。
为了支持数据和混合云的发展,就需要一个与时俱进的数据中心。NetApp在软件定义存储、全闪存等方面的创新,都是在为下一代数据中心做储备。前不久,NetApp与曙光公司宣布战略合作,意在加强软件定义存储的创新与推广应用。NetApp一年前收购SolidFire,进一步增强自身在闪存方面的实力,成为全球增长速度最快的全闪存提供商,并跻身 Gartner固态阵列魔力象限领导者行列。
可能因为SolidFire在全闪存方面的光芒太过耀眼,掩盖了它作为下一代数据中心基础架构平台的本质。在媒体见面会上,NetApp大中华区技术总监游庆洪特意强调说:“SolidFire的价值并不仅仅体现在它是一个全闪存阵列,其重要性在于,从产品设计到管理方式,再到消费模式,SolidFire跟随整个行业的趋势变化。它是具有变革意义的新一代数据管理解决方案,可以满足基础架构层面的各种使用需求。”
千万不要把SolidFire和全闪存划等号,那样是低估了SolidFire的价值和功用。SolidFire可以适配不同的底层硬件,既可以是闪存,也可以是磁盘,而且不会因存储介质的变化而影响或改变其业务价值。“SolidFire是适用于下一代数据中心的产品,采用的是下一代的消费模式。” 游庆洪表示,“如果你不是一个存储行家,或是不愿意把所有精力放在存储的配置和管理上,那么SolidFire是一个适合的选择。它不是一个单纯的硬件,而是将必要的存储和管理服务集成一起,用户不用关心存储底层的技术细节,只要关注自己的应用即可。”
一句话,SolidFire不仅仅是一个存储产品,而是一种服务交付的模式。它为云而生,是顺应下一代数据中心应用需求的产物。
因此,NetApp对SolidFire寄予厚望。Tim Pitcher介绍说:“NetApp对SolidFire的收购是非常成功的。在收购之后,SolidFire很快就被完全整合到NetApp之中。SolidFire借助NetApp的渠道,以及工程设计、市场推广等方面的资源,实现了加速发展。”
不可否认,SolidFire的加入,进一步完善了NetApp的全W存产品线。针对不同用户的需求,NetApp可以提供各具特色的全闪存产品:针对虚拟化和云环境,SolidFire是理想的选择;针对那些相对保守的SAN的拥护者,NetApp AFF全闪存阵列可以让他们享受到闪存的优势;那些对产品的性价比十分敏感,希望可以部署快速,并且操作简便的用户,可以选择NetApp EF系列全闪存阵列。
按计划,SolidFire的技术将融入到NetApp FlexPod融合架构中,运行在思科UCS服务器之上。Tim Pitcher还透露,NetApp即将推出基于SolidFire技术的超融合产品。
SolidFire的“个性”
SolidFire成立于2010年1月,其创始人来自著名的数据中心托管服务商Rackspace,所以SolidFire的产品非常适合数据中心托管、大规模Web应用和云计算环境。SolidFire于2012年11月第一代产品,在被NetApp收购前,其SF系列产品已了四代,核心的Element OS已更新至第九版(Fluorine)。
NetApp SolidFire解决方案提供了云服务般灵活与高速的数据中心基础架构。企业可以将关键任务应用安全地整合到单一存储系统中,从而降低成本和复杂性。NetApp SolidFire的一系列软件创新为大规模可扩展性提供了充分支持,全面保障每一个应用程序的性能,并确保无中断。
客户可以从NetApp SolidFire的创新许可模式中受益,其FlashForward容量许可模式是一种灵活、永久、可预测的许可模式。客户可以单独购买硬件和软件,永久且可转让的许可证将软件从硬件升级、重新利用或整合中分离出来。许可证可以转让,并且不依附特定硬件,让客户能够随时升级或更换硬件。NetApp SolidFire内置的可用折扣机制可确保软件和支持成本随着配置容量上升而下降。
收购SolidFire,为NetApp的下一代数据中心版图增加了浓墨重彩的一笔; SolidFire在NetApp雄厚资源的支持下,赢得了业界更高的关注度,拓宽了市场覆盖。举例来说,以前SolidFire在中国没有办事机构,现在有了NetApp的支持,中国用户也可以享受到SolidFire带来的种种便利。
借助SolidFire全闪存阵列的“无共享”架构,客户可以更加快速、高效地迁移、扩展和转变运营。SolidFire分布式存储网络中的各个节点以自我修复的方式管理数据、冗余和恢复。企业可以打造自动化的存储基础架构,保持较低的运营成本,从而为 OpenStack、VMware、VDI、数据库、DevOps和服务提供商提供理想的支撑环境。
为此,本期特别推出了“绿色IT基础设施”的重点选题,作为今年《计算机世界》启动的“2008年中国绿色IT行动”中的一个重要组成部分,期望能够帮助用户了解数据中心中的IT基础设施(包括服务器、存储及交换机等)的最新节能产品和技术,并鼓励IT厂商们在节能技术上进行创新。
节能改变
产品发展方向
据Gartner的最新统计,全球信息技术设备排放的二氧化碳占到了全球二氧化碳排放总量的2%左右,每年信息设备要向大气层排放大约3500万吨的废气,现在,IT设备对环境的污染程度甚至已经超过了航空业。
长久以来,集中使用服务器、存储及交换机等IT基础设施程度最高的数据中心俨然成了一只“电老虎”,在吞噬着大量电能的同时,排放出了大量的二氧化碳,其也因此成为了被各方诟病和指责最多的焦点。
据美国节能联盟(Alliance to Save Energy)的资料显示,以目前的增长速度来看,如果数据中心的能效保持现状,那么数据中心的用电需求将在不到10年的时间内翻倍,全球数据中心的电费每年也将会再增加2亿~3亿美元。同时,Gartner也预言,在接下来的几年中,世界上一半左右的数据中心将受到电力和空间的约束,能耗会占到IT部门三分之一左右的预算,IT组织在能耗方面的花费将达到硬件花费的四分之一。
“目前,能源危机的成本压力已经向IDC企业迎面袭来,全球数据中心年度能源与电力成本已经高达72亿美元。同时,据估算,硬件产品每花费1美元就要支出0.5美元的能源费用,这些数字都非常可怕。”世纪互联市场部经理石亚平感慨地说。
我们以服务器产品为例,计算性能这一重要指标一直都是用户采购时最为关注的。不过,相信当CIO们看到下面的这一组数据时,可能就会更多地考虑一下有关服务器的能耗问题了。首先从数量上来看,据IDC的预计,从2006年到2010年,服务器销量年均复合增长率为32.2%,到2010年,新装服务器的数量将会是每年189.9万台,这些数字应该说相当可观。
如果我们保守地按照现在全球服务器总装机量大约是3500万台,并按每台服务器每小时功耗为400瓦计算,那么全球所有服务器在每小时的耗电量将是1400万度;如果按照每度电的二氧化碳排放量约为0.997千克计算,就约合13958吨;在摄氏25度、常温及标准大气压下,1吨二氧化碳所占空间为556立方米,如果我们形象地做个比喻,那么全球每小时由服务器所排放的二氧化碳将可以填满约3104个奥运会比赛专用游泳池。
我国在2007年用于服务器电源和冷却的总开支也达到了惊人的19亿美元,仅在北京和广东两个地区,这部分的投入就达到3.2亿美元和3.6亿美元,此外,IT电力消耗在东南沿海地区则更为惊人。
除了服务器产品以外,随着全球数据量的大幅增长,存储设备的部署总量也在大幅增加,甚至据IDC的数据显示,存储在数据中心中的能耗总量将在2008年超过服务器。此外,据悉,现在存储系统每消耗1瓦的电能就需要额外消耗1瓦至1.5瓦的电力用于散热。因此,SINA(存储网络工业协会)也开始着手解决数据中心中的存储能耗问题,他们希望通过宣传改进对存储效能的需求,并开发用于数据中心存储硬件的能效指标。这就正如SPEC(标准性能评估机构)开发针对服务器的能效指标一样,SINA希望以此来衡量存储能效并指导用户购买。
总的来说,大量的IT基础设施所消耗的不仅仅是电力,产生这些电力的能源消耗所带来的环境污染更加令人担忧。因此,在这样的大背景下,以节能、环保、高效为核心价值的绿色IT产品与技术的发展,也就成为了新一代IT产品的创新重点。
现在,从芯片、服务器、存储到网络设备厂商,甚至是软件厂商,都希望在自身的产品上做更优化的设计,力图在提升产品性能的同时,推出更为节能的产品。可以说,“绿色”已经开始改变整个IT界的产品走向,通过高能耗来获取高性能的道路已经彻底走不通了。
绿色催生
各种新技术
作为数据中心中的关键组成部分,服务器、存储及交换机等产品的节能问题成为了企业“绿色”改造中的核心问题,也正因如此,低功耗芯片、刀片、虚拟化、重复数据删除等技术成为了服务器、存储等IT厂商们的杀手锏。
现在,包括Dell、IBM、HP、Sun、富士通、浪潮等在内的多家服务器厂商都推出了以“节能”为卖点的服务器产品。IBM最新推出的Power 595服务器因采用了5.0GHz的POWER芯片,因此在大幅提升性能的同时却并没有增加功耗。此外,Sun采用了多线程技术的UptraSPARC T1服务器产品倡导的也是“绿色”芯片技术。而浪潮则除了进行主板的芯片研发之外,还跟英特尔等其他一些厂商合作,通过更新的技术对处理器、内存甚至硬盘的耗电量进行实时地监控。
除了采用低功耗版本的服务器芯片之外,还有很多服务器厂商采用了高转换率电源技术来降低服务器的整体功耗。比如Dell所推出的Energy Smart 1950和Energy Smart 2950两款服务器,比其标准的1950和2950都宣称能够节能25%。而据Dell企业传播高级经理关丽介绍,Dell很早就将节能技术应用到了服务器上,除此之外,在去年,Dell还推出了其第10代刀片服务器,Dell M系列的刀片服务器每年能节省电量3200度,节省电费2600美元,同时这还意味着可以减少二氧化碳排放18吨。
惠普在其BladeSystem C-Class刀片系统中使用了能量智控这一关键技术,其通过内置的仪器对刀片机箱内的能耗和散热情况进行精确地监控,并对电源和散热的分配进行调节;HP Integrity服务器的虚拟化和整合技术则可以实现节约电能并降低散热成本。此外,富士通也推出了性能更高、耗电量更低并结合了VMware虚拟化技术的“绿色”刀片服务器FUJITSU PRIMERGY BX620S4。
在存储系统方面,虚拟化、重复数据删除等技术成为了各家存储厂商推出“绿色”存储产品时的宣传重点。飞康推出的结合重复数据删除与高可用集群的企业级虚拟磁带库解决方案不仅通过重复数据删除技术节省了资源,同时还提升了备份的速度及可用性,并降低了企业异地灾备的成本。而昆腾也认为,重复数据删除技术是让存储产品实现“绿色”的最关键因素。
日立则基于其USP V平台在企业级虚拟层实现了动态精细化预配置功能:USP V和动态与配置软件的结合使用户能够在一个整合的解决方案中同时获得外部存储虚拟化的好处以及电力和冷却成本方面的优势。
在UTI的绿色存储中应用的核心技术是MAID(Massive Arrays of Idle Disks,大规模非活动磁盘阵列存储),其是通过这种方式来实现节能的――在有需要时才将部分磁盘开机运转,而其他磁盘通常处于断电状态。此外,华赛的存储产品采用了智能化磁盘加电技术,这种技术可以有效地避免设备加电时给网络系统带来的电流冲击,确保设备平稳加电启动,并以此来减少不必要的电力消耗。
看来,各家存储厂商都已经拿出了自己的看家本领,而各种新技术也成为了实现“绿色”存储的有力保障。
作为网络设备供应商,H3C一直都在关注节能环保的问题,也很早就开始了关于绿色的研发工作,其中智能散热技术、芯片级的节能技术等都已经得到了很好的应用。此外,其他主流的网络设备厂商也都开始应用各种新技术,为的也是让交换机的能耗更低。D-Link推出了六款DGS-10XX系列的绿色环保节能交换机,平均节能达到30%;而迈普在整个产品设计上都应用了节能技术――通过采用高性能的交错式PFC控制技术提高电源转换效率;采用高密度的业务板卡降低功耗,并通过提高板卡的密度来降低单端口的功耗等。
Sybase是最早提出绿色数据库概念的软件厂商,他们一直都在强调列式存储技术对于空间的节省。“1PB也就是1000TB的数据量,加载到Sybase的绿色数据库上,最终形成的存储量只有185TB。”Sybase中国区售前总监宋一平介绍说,“压缩掉这么大的数据量,大家可以想象,从数据的存储到与主机相关的存储设备空间的降低对于降低能耗所起到的作用。”
此外,华赛还推出了一款“绿色环保”的安全网关,其使用了低功耗的主处理芯片,并在系统主板上采用了省电技术,同时对关键的耗电单元做了供电优化;智能化的风扇控制技术使得散热系统可以根据系统的温度智能调节风扇的转速以及功耗。同是信息安全厂商的天融信推出的“绿色”安全产品也将高集成度的安全ASIC芯片和多线程处理技术以及并行的计算安全操作系统和全方位的虚拟化技术融入到了其中。
环保主导
IT产品采购
在与国内企业CIO接触的过程中,我们发现,他们普遍存在着这样的一种观点:对于目前国内企业的数据中心而言,在绿色节能方面还只是一种发展趋势。也就是说,对于今后将要新建的数据中心,CIO们在采购服务器、存储以及交换机等产品时会把节能作为一项重要指标来认真考虑,但是,对于已有的数据中心,在原有基础上进行“绿化”改造就很难推进了。
事实上,现在除了金融、电信等一些数据处理量很大的行业,其他行业用户对于“绿色数据中心”的概念还多是持观望态度。毕竟国内外的IT基础不同,人力成本也不同,对于国内的CIO而言,在优化IT基础设施与人力成本上必须要做一定的权衡,因为在国内,人比起机器来要便宜得多。
此外,导致出现这一现象的原因可能是很多企业的CIO对于节能还没有更准确的认识,他们不知道从何做起或是认为要节能就要先花一大笔资金,而且受益又不会很明显。其实并不然,只要方法得当环保是可以为企业带来利润的。
不过,现在,我们已经欣喜地看到,随着国家在节能减排政策法规方面的强化,以及国内劳动力成本的逐步上升,CIO们的观念也在逐渐改变,至少在新建或是扩展数据中心时,他们已经开始将绿色节能作为采购过程中的重要衡量指标了。
其实在政府采购方面,我国很早就出台了一系列的政策加以引导。2006年11月22日,财政部和国家环保总局正式对外公布了《环境标志产品政府采购实施意见》和首批《环境标志产品政府采购清单》,要求各级政府机关、事业单位和团体组织在用财政性资金进行采购时优先选购环境标志产品。
世纪互联市场部经理石亚平也表示,能源危机的成本压力已经向他们迎面袭来,他们已经充分认识到了能源与电力的成本甚至会逐步超过硬件产品的采购成本,因此,采购绿色环保的IT基础设施已经成为了一种的必然趋势。
也可以说,环保已经开始影响并主导企业的IT采购,虽然目前业界还很难找出一种综合评判标准来量化地衡量服务器及存储产品的节能情况。不过,前面提到,现在SPEC正在着力开发针对服务器的能效指标,SINA也开始着手解决数据中心的存储能耗问题,并希望开发用于数据中心存储硬件的能效指标。我们相信通过第三方组织和厂商们的共同努力,能够建立起科学的评判标准,以帮助用户在选择和采购IT基础设施时更有据可依。
链接
关于SPEC服务器应用性能测试
SPEC(标准性能评估机构)是一个全球性的、权威的第三方应用性能测试组织,其旨在确立、修改以及认定一系列服务器应用性能评估标准。SPEC服务器应用性能测试是一个全面衡量Web应用中Java企业应用等服务器性能的基础测试。
今年3月,SPEC了SPECpower_ssj2008,这是业界第一项用于评测系统级别服务器与运算性能相关的功耗的基准测试工具。SPEC设计的SPECpower_ssj2008不仅可以作为一项指标来比较不同服务器之间的能耗和性能,还可以作为提高服务器效率的工具集来使用。
SPECpower_ssj2008可以显示出给定时间内服务器在不同性能表现时的功耗情况――从100%满负载到10%以及闲置负载模式。按等级划分的工作负载可以反映出服务器上的处理负载和能耗会随着评测时间(几天甚至数周)的不同而发生显著变化。因此,要计算所有级别的服务器能耗-性能标准,需要将每个阶段测量到的交易吞吐量相加,然后除以每个阶段的平均功耗之和,最后得到的数据结果即被称做“overall ssj_ops/watt”指标。
目前,越来越多的公司介入存储软件领域,据统计,目前数据存储花费占企业总体开支的比重越来越大,而其中有91%用来购买存储管理软件,只有9%用于购买硬件。而用于购买存储管理软件的花费也已超过实际应该用于该项花费的三至九倍。
用户之所以对存储软件需求越来越大,原因有两点,第一是由于数据量的爆炸式增长,第二是由于用户希望在整个业务周期中对在线信息进行更强大的保护。
如今的存储软件市场由四部分构成,包括存储资源管理、复制、备份和存档。存储资源管理(SRM)所占比重是最大的,复制的收入是增长最快的。而数据备份则是每个最终用户都迫切需要的,它关系着一个企业数据的最终安全。而这四个领域分别又出现了虚拟存储、网络存储等新兴的存储形式,这些都对原有的存储软件市场带来了新的冲击。统一化、虚拟化和绿化正在改变着过去传统的存储模式,未来的存储市场将由虚拟与统一共同构建。
存储虚拟化:乱花渐欲迷人眼
存储虚拟化的概念在2005年就已经炒得沸沸扬扬,而今随着英特尔和思科对虚拟化厂商VMware股份的收购,虚拟化再次成为业界的热点,虚拟化存储更是持续升温,成为存储领域最热门的话题。
虚拟化无疑是存储领域的热门技术,同时也必将成为存储厂商在激烈的市场竞争中制胜的法宝。然而这种竞争却过多地表现在存储企业对外的宣传中,虚拟化反而成了厂商标榜自己的口号和促销的策略。
虚拟化概念的滥用让用户越来越迷惑,同时在对虚拟化抱有过高期望的同时,对虚拟化技术也敬而远之。企业界对于虚拟存储技术的采用步伐颇为缓慢。根据IDC对269名来自不同规模的公司IT经理的调查显示,仅仅只有8%的企业正在应用任何一种形式的虚拟化。并且仅有平均23%的企业表示计划将在未来12个月里尝试实施一定程度的存储虚拟化。
除了市场的不成熟外,存储虚拟化的技术发展也还只是处于起步阶段。对于存储厂商而言,所提供的虚拟化产品还非常有限,同时存储虚拟化标准的缺乏也成为虚拟化普及的重大障碍。
目前的现状是,存储虚拟化产品确实已经得到了具体的应用,如采用存储虚拟化实现时点数据拷贝,但目前尚无一种方案满足不同客户的需求,在较短的时期内,存储虚拟化可能只是局限于个别功能的应用,用户仍很难选择合适的方法来满足特定的需求,用户采用存储虚拟化技术时仍需真正仔细的考虑,并进行实际应用测试。
另外更深层次的在于存储虚拟化急需统一标准。尽管实现虚拟化的目的之一在于解除厂商绑定,但由于虚拟化本身标准的缺乏,导致虚拟化本身的不兼容,并因此制约了整个虚拟存储市场的快速发展。
坐而论道,不如起而行之。概念的炒作之下,对于存储企业更迫切地是产品的研发和标准的制定,只有如此虚拟化存储才能真正迎来市场的繁荣。
虚拟化存储未来的发展将体现在以下三个方面:交换架构虚拟化,磁盘阵列虚拟化,以及整合到应用设备内的虚拟化。而随着技术的不同成熟,这三个方面的界限也会逐步模糊,并互相渗透融合。同时在大的层面上,存储虚拟化和服务器虚拟化之间的界限也将逐步模糊。
网络存储:走向统一
今天,网络存储体现出来的一种精神是“整合”――整合不同厂商的产品技术,整合新老系统的对接,整合用户现场中形形的孤岛。
企业经过不同时期的发展,形成了NAS和SAN同时并存的现状,正是这种混合让企业数据管理变成大难题。同时多种不同的技术架构并存,不同厂商难以兼容的管理方式也让管理者头痛不已。
通常,厂商间的存储管理模式很难实现兼容,甚至同一厂商针对不同层次的应用方案之间也存在兼容的问题。管理不同的设备需要专用的管理软件,企业在不同时期采购的不同产品必然会带来管理难题:不兼容的设备之间形成孤岛,不兼容的软件管理方式使得必须同时应用不同的管理软件进行管理等,这些无疑增加了企业管理的复杂性和成本,对技术人员的要求也在不断提高。
针对这些问题,“统一存储”的概念被提出,并且在当今市场上得到了逐步应用,“统一存储”让现代企业能从容应对数据爆炸式增长。
统一存储技术将SAN和NAS统一在一起,用户可以在此统一架构下,同时支持通过光纤通道FC、IP等存储区域网络 (SAN)和网络附加存储(NAS)提供用户所需的存储资源,从而使其存储环境具有无与伦比的灵活性,同时最大限度地降低复杂度和成本。
通过使用统一的网络存储架构,在单一架构基础上,灵活地实现多种连接,方便了管理,企业投资也因此得到很好的保护。兼容统一的软件也实现多种存储形式的管理,这样就减少了员工的培训和服务需求,不会再为因多种不同架构,多种不同产品带来的多套管理平台而增加管理成本。
另外“统一存储”解决方案的推出,将帮助渠道商进一步提升自我竞争力,为给客户提供更加优质的服务打好坚实基础,同时,简化统一的管理方式也降低了渠道商的服务成本,用户数据管理问题也能得到较好的解决,也许,这正是网络存储的未来之路。
统一存储的出现让存储市场在一定时间内保持了健康的发展,但是由于业内的存储厂商对实现统一存储的方式、方法的不统一,已经对用户在选择解决方案时产生了困扰。例如EMC提出的SAN+NAS集成解决方案,而NetApp的FAS统一引擎,两者对“统一存储”的实现方式在某些方面甚至截然相反。“统一存储”在实现上的各不相同,概念上的不统一,以及缺乏必要的认知和规范性使得“统一存储”本身却很难统一,而这同样为以后的整合增加了难度。
EMC:存储即将进入爆发期
纵观近期存储软件市场,虚拟化技术持续受到注目,数据保护技术不断升温,内容管理市场正在发酵,绿色存储成为大势所趋,信息安全日益受重视,整个存储软件市场表现出生机勃发的态势。
在虚拟化软件方面,服务器虚拟化仍是焦点,服务器虚拟化可以大大降低数据中心的软硬件投资和能源开销,节约企业和社会资源,正因为如此,英特尔、思科积极入股VMware,VMware的部分上市也大获成功。IDC今年三月报告,预计全球数字信息将在2010年达到9880亿GB,其中超过95%的数字信息为音频、视频、图片等非结构化数据,随着非结构化数据的大量增加,文件虚拟化将成为服务器虚拟化之后的下一个热点。
数据保护技术方面,除了传统的业务连续和数据容灾持续升温外,以EMC RecoverPoint软件为代表的连续性信息保护技术在立即快速数据恢复及减少宕机成本上成效卓著。数据去重技术(Du-duplication)则是这个领域的一项革命性技术。知名的存储和服务器行业咨询机构Taneja Group认为,它是从底层架构彻底颠覆传统的保护技术,从现在起的未来三年内将独领。EMC Avamar平均删除率高达300:1,用户对此反应积极,纷纷进入评估阶段。先将静态数据归档,然后再备份至磁盘的技术,在大量数据增长及法规遵从的压力下,也逐渐受到重视。
全世界有10亿多个设备在拍摄影像,这些影像成为数字宇宙中最大的组成部分。这些影像通过互联网、企业内部网在PC和服务器以及数据中心中复制,通过数字电视广播和数字投影银幕播放,以EMC Documentum为代表的非结构化数据内容管理平台软件将因此受到市场热烈响应。目前,中国四大国有商业银行中的三家银行,以及光大银行已经采用EMC Documentum作为内容管理平台。
绿色IT、能效服务一直是业内广泛关注的议题,怎样才能组合出最佳能效策略是一门艺术。EMC在能效优势服务方面有着一套完整的策略和实施方法。它是EMC通过对多年实施ILM服务以及专注于发展信息基础架构所积累的经验提炼开发出来的,并在全球众多相关项目中广为使用并得到验证。
IBM:信息随需应变
信息是任何致力于创新的企业不可或缺的企业资产,向业务人员传递基于上下文的准确信息有利于优化业务流程、提高生产效率,并最终促使企业实现业务创新。但是在今天,大多数公司的真实情况是信息被淹没在海量的数据资源中无从利用,甚至成为企业的一种负担。而且这些信息往往是被相互之间没有任何关联的系统所获取,这就造成了信息不可信、获取机制不灵活和信息管理成本居高不下的问题。与此同时,受法律法规制度的影响,企业还需要在保存信息的同时遵循相关法规。如何有效的管理信息成为了企业急待解决的问题。
IBM软件集团信息管理软件全球市场营销副总裁Mark Register表示:“企业需要重新审视掌控信息的方式,并将掌控信息提高到一个战略的高度,把信息变成一种重要的企业资产。IBM提出的信息随需应变理念正是从客户需求出发,帮助企业使信息资产的价值最大化。IBM承诺帮助客户利用他们现有异构环境中的信息,保护他们的已有投资,以推动更高水平的业务洞察和创新。”
IBM是信息随需应变的倡导者并致力于帮助企业将业务数据转换成企业资源,从而实现从“数据”到“信息”,再到“智能”和“洞察力”的转变。为了配合信息随需应变计划,IBM已于去年宣布将在三年中投入10亿美元,并将其掌握相关技能的从业人员数量增加65%。同时IBM将在新的研究工作、产品开发、战略收购、客户服务、销售队伍和新的合作伙伴计划中进行持续不断的投资。
IBM系统存储部大中华区总经理侯淼表示:“凭借在软件、硬件和服务的优势,IBM能提供用于支撑信息随需应变理念的完备解决方案,包括主数据管理、信息服务器、动态数据仓库以及贯穿整个信息生命周期管理的存储产品和相关的服务,从而帮助企业在获得可信业务信息、创建动态信息基础设施和实现信息生命周期管理等三方面实现价值最大化。”
惠普:统一基础设施管理
现在,一套完整的企业管理解决方案不仅要能管理IP网络,还应考虑到更新的工作技术,包括存储区域网络。迄今为止,市场上存在许多面向服务器与存储网络基础设施的管理解决方案,但最多只实现了最基本的集成。因此,企业不得不在管理不同的环境时应用不同的解决方案,而它们之间无法协调。
企业需要一款统一的服务器与存储网络管理解决方案来实现协调管理,从而提升可用性、缩短排除故障的时间,减轻总体管理负担。
HP正帮助企业迈向开放标准与企业管理的新时代,HP公司认为,当前的IT基础设施非常复杂并且难于管理。许多企业都需要花费大量的IT资源和预算来保持关键服务可用并高效运行。HP Systems Insight Manager (SIM)是业内首次集成服务器和存储设备管理的统一平台。通过提供两者的“箱外”管理能力,这一软件使用户能降低IT维护的成本和复杂性,释放资源,专注于创新。
HP存储管理解决方案提供了管理当今苛刻IT环境所需的软件和服务,使这些难题迎刃而解。HP存储管理解决方案服务可帮助客户安装、集成和优化其存储区域管理解决方案的效率和性能。
这样,面向服务器和存储网络的统一管理平台将帮助企业大大缩短解决问题的时间,更加有效地进行故障排除和事件关联,同时降低总体管理成本。
HP存储管理解决方案帮助加速项目的完成以及降低成本,包括SAN和NAS管理、供应新的项目应用、数据中心服务器整合、业务应用管理、性能故障排除、根本原因分析、安全性审计、内部控制和法规符合性报告、远程数据中心管理、Chargeback和成本会计、磁盘空间清除再利用、资产管理等。
HP全新HP存储管理解决方案的推出,得益于HP对开放存储区域网络管理与存储资源管理技术领域的领导厂商AppIQ的收购,以帮助其企业用户管理他们的服务器与存储。通过收购AppIQ,HP能够为用户提供单一且集成的控制台,以帮助用户控制和更好利用他们的存储与服务器基础设施。AppIQ能够与HP的全部软件产品实现集成,让信息更好地融入业务中。
CA:存储管理三箭齐发
在CA的EITM(企业IT管理)蓝图中,存储管理是CA宣布将持续关注的一个关键领域。从2005年10月开始,CA连续收购了3个存储领域的软件厂商,并渐进式地实现了新技术与原有存储软件的整合,这其中包含了CA中国技术中心存储产品研发及质量保证团队的深度参与。
据CA公司BrightStor存储产品工程设计、SWAT和质量保证部门的副总裁Jason Shangold介绍,目前CA的智能存储管理架构已经趋于完善。在原有核心业务恢复管理的基础上,已经衍生出信息管理、资源管理两个新的产品线,它们分别面向信息生命周期管理和第三方异构存储环境管理领域。围绕这一新的战略架构,CA相继收购了邮件与存档管理厂商iLumin、记录管理软件厂商MDY,以及持续应用可用性软件厂商XOsoft。目前,CA已经投资1.5亿美元进行存储领域的收购,其存储管理战略调整基本完成,在收购之后,新技术与BrightStor的整合正在有序进行。
目前,CA中国技术中心集中了CA全球95%的BrightStorARCserve Backup研发团队,在产品研发、质量测试等方面积累了丰富的经验。CA还计划将BrightStor服务体系中重要的二级支持部分迁移到中国。在CA新的存储战略中,CA中国技术中心占据着重要的位置。Jason Shangold表示,CA中国技术中心的技术实力和产品开发流程整合经验是BrightStor最具价值的组成部分。CA中国技术中心正在通过有效运用CA全球资源的方式,推动BrightStor的技术演进,并为中国用户提供高品质的本地化软件产品。
赛门铁克:统一平台 统一存储
各行业各类型规模的企业一直面临严峻的存储挑战。赛门铁克预测,数据量每两年都会成倍增长,而业内平均存储利用率仍保持在30%~35%。昂贵的存储系统充斥着大量不必要的重复数据,IT部门越来越意识到,正是因为存储在很大程度上引发空间、能源和冷却问题,导致许多数据中心迫近临界点。如果企业希望有效应对这些存储挑战,他们必须解决根本原因――平台问题、管理问题以及业务问题。
平台问题源于当前数据中心对多层操作系统、虚拟机环境、存储硬件平台和存储网络技术的依赖。由于每个硬件厂商提供的工具通常只能在其特定的平台上运行,使得企业必须管理大量节点工具,才能保证异构数据中心的运行。随着数据中心复杂性不断增加,既要保持严格的IT预算,又要满足日趋严苛的服务水平,几乎是不可能的。
赛门铁克Storage United计划的一个核心要素就是提供全面的数据保护、存储管理和归档软件层,支持数据中心所有主要服务器和存储系统。由于赛门铁克没有推出硬件产品的计划,因此用户在存储和服务器架构以及硬件选购方面拥有极大的选择性、灵活性及控制性。凭借赛门铁克在这些存储市场中的领先地位,企业能够在其数据中心内创建一个更加标准化的操作环境,同时充分利用所获得的业界最佳的功能和特性。
存储的业务问题源自业务领导与存储人员之间的认知和了解差异。Storage United的关键原则之一即赛门铁克引导企业走向服务型存储的承诺。通过协助企业获得整个存储环境的可视性,部署存储利用率改善流程,创建存储运作实践,将存储服务与业务需求结合,赛门铁克为提供真正的服务型存储打下坚实基础。除了利用大量技术和流程最佳实践来支持存储服务管理,赛门铁克还提供先进的业务报告功能,使企业存储团队将存储作为业务进行管理,并与业务人员在成本和服务级别上进行沟通,而并非局限于技术本身。
赛门铁克数据中心管理部门总裁Kris Hagerman表示:“赛门铁克在协助企业应对日益严格的存储挑战方面拥有独特优势。通过全面、跨平台的存储软件产品线,赛门铁克能够助力IT企业统一其分散的存储硬件环境,统一存储信息孤岛,并通过服务型存储产品,统一存储运营与业务。”
NetApp:统一存储之道
2007年的存储市场风起云涌。在两年以前,企业还不曾关注存储和数据的管理。而今,随着全球数据量的急剧膨胀,企业对信息存储的需求量越来越大,其信息管理的复杂程度也越来越高,存储和数据管理成为了CIO们关注的热点,存储市场正迎来一个全新的黄金时代。
为了满足客户的需求,NetApp今年先后推出了一系列创新性的技术和产品。NetApp FAS3040和NetApp V3040系列产品,旨在简化企业数据中心管理。同时,FAS3040和V3040系统大大加强了 NetApp的技术应用基础设施,可用于设计、自动化及其他数据密集型应用的存储。未来推出的Data ONTAP GX也可用于系统,以满足有扩展需要的客户。此外,NetApp还推出了重复数据删除技术,帮助客户在多种应用环境中获得重复数据删除带来的成本效益,这些应用环境不仅包括备份、归档、遵从性存储和主数据集,而且覆盖根目录及基因数据,让客户能通过显著降低需要购买和管理的存储量来减少资金开销和管理成本。