时间:2023-02-20 17:38:42
开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇数据中心机房方案,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。
近年来,随着信息技术的高速发展,传统的数据中心建设已经不能满足市场的需求,取而代之的是应用新技术而发展起来的新型数据中心,其中,以具备安全可靠、灵活扩展、建设周期短等特点的模块化数据中心为代表。相关调查数据显示,短短几年内中国模块化数据中心发展迅速,特别是在追求安全、高效能的金融业领域,模块化数据中心建设更是迎来了一个建设。
以往资料显示,传统的数据中心普遍存在电力能耗大、建设周期长、灵活扩展难这三类问题。对于金融业来说,数据中心的建设往往起着基础性作用,一个安全可靠、灵活扩展、绿色节能的数据中心往往能为企业节约巨大的成本,促进企业生存和发展。本文结合近年来中国数据中心的发展现状,具体介绍金融业模块化数据中心的构建。
1 数据中心相关介绍
数据中心一般指在一定的物理空间内,由多个服务器以及通信设备构成的一整套复杂的设施。金融业数据中心指承载金融机构核心业务的数据中心。按照行业目前的分类,金融业数据中心大致分为大型数据中心、中型数据中心和小型数据中心,而“模块化”在这三类数据中心都具有很大的发展前景。大型数据中心包括总部数据中心、灾备中心、后台中心等。中型数据中心一般指小规模金融总部的数据中心或者大规模金融的地区性数据中心。小型数据中心主要指营业网点机房和省级、地区级机房等。
模块化数据中心――拆解和组合(也称为解耦与融合),指的是将复杂的软硬件系统功能解耦,让独立的功能单元简单化,再通过标准的架构设计,实现独立单元的简易组合,从而降低系统的复杂度。模块化数据中心的设计内容主要包括模块化UPS、封闭通道机柜设计、环境温湿度模块设计、供配电模块设计、动力环境监控模块设计和消防模块设计。
2 传统数字中心存在的问题
2.1 电力能耗大
在2012年(第六届)移动互联网国际研讨会上,中国移动公司李海滨说:“传统的数据中心存在的问题是以机房为核心,机房的建设与IT设备脱节,机房的标准化程度低,机房自身能耗高。”传统数据中心最大的弊端是巨大的电力损耗,数据中心的运行需要庞大的电力做支撑,但由于早期的金融业数据中心片面追求安全性,而在用电上考虑不周全,电力能源损耗和负载使用的能源都比较高。[]
2.2 灵活扩展难
传统数据中心的机房建设采用“一次到位”的方式,所有的设备都是配套安装,因此,机柜内的设备升级一般要面临许多问题。例如,我们在扩展传统的机柜时一般要考虑新旧设备的重量密度、安装要求、单电源设备与双电源设备的配电要求、交流设备与直流设备对配电的要求等;另外,UPS扩容时我们也要考虑新旧UPS系统的兼容、新扩容的UPS与现场环境的匹配等。
2.3 建设周期长
一般情况下,数据中心的实际建成需要3个月至18个月的?r间,从方案设计到设备采购和系统安装,每个环节都需要时间。
3 构建金融业模块化数据中心
目前,国内已经在大力推进第四代数据中心。例如,2014年3月28日,在济南开通运营的浪潮云计算中心,是中国首家第四代数据中心。浪潮云计算中心具有模块化和节能环保两大特色,并具有“永远在线”的高可靠性,它的开通运营标志着中国云计算中心建设达到国际先进水平。另外,腾讯在2016年的T-block首秀(腾讯的第四代数据中心),并以PUE
近年来,高端数字中心解决方案在金融领域广泛应用,已成功应用于银行、保险、证券等分支行中心机房,为金融信息和金融设备安全提供保驾护航。比如,2014年梅州建行进行模块化整改,成为中国第一个改造试点;2015年广发银行采用“慧云”模块化数据中心解决方案,满足客户在“互联网+”时代对数据中心高效安全、智能管理和弹性节能的需求;2016年12月中信银行信用卡中心自主研发“决策引擎系统”,推进金融行业数据中心建设更进一步发展。
众所周知,金融行业数据中心机房建设是一项复杂而庞大的工程,建设周期较长,无法在短时间内高效利用机房为金融业务提供支撑,从而影响核心业务的发展。而国内模块化技术的快速发展和应用,有效地解决了金融行业面对大数据时代的变革问题。
3.1 金融数据与云计算和虚拟化的结合
金融数据中心机房在进行模块化建设的过程中,需要进行弹性设置,借助于云计算与虚拟化技术对IT设备的动态调用,使得基础设施能够充分实现动态响应和按需分配的客观要求。弹性金融数据中心机房通过智能设施管理系统、环境自适应冷却系统、冷量动态调节系统,轻松实现基础设施与IT系统的动态协同,快速响应云计算和虚拟化对IT资源的动态调用。与传统数据中心相比,可大幅提高能效,有效降低运营成本,减少碳排放。
3.2 实现可用性与TCO的最佳平衡
目前,大多数企业都由同一等级(Tier)的数据中心支撑所有业务,面临可用性不足,或超高可用性部署导致的过度投资问题,造成了资源的浪费。国内部分企业例如华为,为了保证数据中心的实用性以及成本的可控性,通过对业务类型的广泛调查和深入研究,对不同业务的可用性进行量化分析,提出了业界领先的数据中心机房混合部署方案。金融业数据中心机房在建设的过程中,可以部分借鉴华为公司的混合部署方案,实现对不同功率密度的混合,以满足高密度部署以及热点漂移问题的解决需求,而且也支持不同等级的混合,以业务类型确定可用性需求,避免过度投资,实现可用性与TCO的最佳平衡。
3.3 按需部署,高效扩展
关键词:数据中心;机房;卷烟厂
中图分类号:TP309.3
广西中烟工业有限责任公司目前正在实施南宁卷烟厂“十二五”原地技术改造项目建设,在用地范围内建设相关配套设施及全厂信息化系统。主要包括生产自动化控制系统(制丝集控系统、真龙制丝集控系统、卷包数采集控系统、能管集控系统、质检仪器数采系统、香料厨房管理系统)、四大物流高架库信息系统(片烟高架物流库系统、辅料库高架物流库系统、成品库高架库物流系统、嘴棒高架库物流系统)、数据中心机房建设、综合布线网络系统等内容。因为各信息系统设备将会布置在数据中心机房,所以数据中心机房是信息化系统建设的基础。
1 总体原则
本次数据中心机房的建设遵循“安全第一、经济与技术、实用与先进和可持续发展”的原则进行规划设计,满足国家现行机房建设的标准及规范。规划前认真分析企业信息系统及数据中心的功能、用途以及今后发展需求,对机房进行各个子系统的规划和建设时注重各个子系统的实用性和先进性,建立相应的软、硬件平台,实现信息共享、资源共享、科学管理和网络信息集成。机房规划和方案力求简洁可靠,符合企业的管理和发展的需要,采用先进的成熟技术设备,应用科学的管理方法手段,在立足“满足现在、适应未来”的建设策略的基础上,充分考虑机房系统的先进性、高可靠性、高安全性、可持续发展性、易管理维护性、开放性、实用性、舒适性、环保节能、经济性等各个方面。
2 总体规划及布局要求
数据中心机房建设项目位于卷包工房三层东区,属于新建机房,机房面积为220平方米,楼层净高6米。机房建成后,将成为南宁卷烟厂的数据中心,承担着生产网络、办公信息等重要数据存储和交换。
机房建设要求达到国家A级机房的建设标准,温湿度要求:23±1℃;湿度:40~55%;温度变化率:
机房建设功能包含机房装修工程将满足机房防尘、防潮、抗静电、电磁屏蔽等机房环境需求;机房供配电系统满足机房高质量、持续、稳定供电及照明、防雷、防静电等需求;机房精密空调系统满足机房温度调节、湿度调界、风量调节等需求;机房环境监控系统满足机房设备运行情况监控;机房综合布线工程满足新机房内及各弱电配线间、中控室设备、网络、数据联通交换需求并配置操作台、机柜等设备;机房KVM管理满足机房内服务器、网络设备管理需求;机房消防系统满足机房消防灭火安全需求。
3 机房系统建设方案
3.1 机房装修:机房天花吊顶采用的600x600×0.8mm铝合金微孔方板吊顶,具有吸音效果,色调柔和,不产生眩光;地面采用抗静电地板,规格600×600,地板的安装高度为450mm,室内净高不小于2.6m。地面面需进行防尘、防潮和保温(厚度12mm以上的橡塑保温棉)处理;墙面柱面除玻璃幕墙外,机房内墙墙面及柱面均采用彩钢板饰面。机房在操作室、主机房、进线间、配电间、消防间设置钢质防火门,门框、窗套采用彩钢板包边处理。机房内部隔断采用12mm防火钢化玻璃隔断。
3.2 机房配电系统:(1)机房设计配电按最大总功率统计汇总,包含照明功率2.2kw、空调功率76kw(2台)、UPS功率120 KVA、新风机0.5kw、机房内设备功率按2台新配UPS功率和的70%计算为56KW,机房电力进线功率按200KW计算(考虑25%的功率裕量)。(2)机房考虑直流工作地、交流工作地、安全保护地及防雷保护地,现利用大楼联合接地体其接地电阻要求满足国家相关规范要求。机房内沿四周做一圈30x3铜带接地网,配电室设总接地排,地板支架、机柜外壳等不带电的金属部分应与接地网相连。考虑到机房的抗静电要求,根据机房的设计规范,机房的静电电压应
3.3 机房空调:采用机房专用精密空调2台,设计制冷量功率为40KW,满足制冷要求。机房考虑新风要求,需要新建新风系统,按面积计算220x4.5mx10次x30%=2970m?,可以选择新风交换量为3000m?/小时的新风交换机来满足机房新风的需求。本项目采用风机两台,每台新风交换量达到1500m?/小时完全达到使用要求。
3.4 机房监控内容:(1)机房配电屏监控。(2)机房UPS监控。(3)机房精密空调监控。(4)精密空调漏水检测。(5)机房温湿度检测。(6)机房消防监控。(7)机房防雷检测,要求系统简单易用、B/S管理模式、开放性好、可接入大机房监管系统及联网监控系统。整合核心IT设施监管,实现对网络链路、网络设备、服务器、操作系统、数据库、业务系统等内容的监管。并根据需要在操作间设置机房监控系统LED显示屏。
3.5 综合布线系统:机房机柜分为4类,分别是:布线机柜、网络机柜、列头柜和服务器机柜。布线机柜到每个网络机柜各敷设六类非屏蔽双绞线,两端配六类配线架。布线机柜到2个列头柜每机柜敷设万兆光纤,两端配光纤配线架。列头柜分别管理所在行服务器机柜,列头柜到每个服务器机柜各敷设六类非屏蔽双绞线,两端配六类口配线架。机房操作间设置控制台,布线机柜到操作间控制台敷设六类非屏蔽双绞线,控制台端设信息插座,包含数据和语音信息点,满足机房设备布线要求。
3.6 机房KVM:机房设置机房集中控制数字KVM系统,在不影响现有数据通信的原则上,利用IP数据网络,对机房内不同品牌的服务器和网络设备进行统一管理,同时提供统一、集中的管理访问界面,提供权限管理,做到专门设备,专门管理,问题故障,有据可查,最终实现机房集中规划、监控、控制、管理、运维的设计目标,提高运维效率。
3.7 机房消防系统采用七氟丙烷灭火系统,机房内防火分区分为主机房、操作间等防火分区,防火分区之间采用12mm防火玻璃进行隔离。七氟丙烷灭火系统由火灾报警系统、灭火控制系统及七氟丙烷灭火装置三部分组成。火灾报警系统设置感烟、感温两路报警,通过气体灭火控制器进行控制,七氟丙烷灭火装置贮瓶充装压力为4.2MPa(20℃)。
4 结束语
数据中心机房是卷烟企业信息、数据、网络的核心枢纽,具有核心地位,是整个生产自动化运行的基础。对机房基础设施及相关系统的要求,应充分虑机房的安全可靠,确保机房在无人值守情况下设备正常运行的工作环境;从防火、防水、防盗、防雷、防静电、防磁、防干扰、降噪等方面采取有效措施;建设成先进、严密、实用、美观、性能稳定的机房环境。保证信息系统及网络的稳定、安全运行
参考文献:
【关键词】云资源池 布线系统 EOR架构 MOR架构 TOR架构
1 引言
云计算是指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的资源。 提供资源的网络被称为“云”。云计算数据中心就是为云计算服务所需要的计算、存储设备与基础设施。提供云服务的数据中心能给用户超强大的计算能力,高带宽的接入服务,海量的存储空间,因此云资源池的一个特点就是“超大规模”。从目前通信发展趋势来看,随着大数据及物联网技术的兴起,云计算数据中心数据通信量的快速上升是不可避免的,因此云数据中心的基础设施建设需求将会随之增长,大规模的云计算数据中心,对布线系统的规模、布线方式均产生了相当大的影响。本文主要分析云计算数据中心的布线策略,探讨分析适应云计算数据中心的新一代布线系统构架。
2 传统的EOR、MOR布线方式
传统的EOR、MOR布线方式是在机房机架列的尾部或中部设置2个网络机柜,在网络机柜中安装网络设备和UTP配线子架,网络设备板卡均布线至UTP的网络侧,服务器布线至UTP的业务侧,在配线架上进行跳线就可以将服务器网卡与网络设备连接。
这种布线方式常见于IT机房,对于小规模的云资源池机房,由于服务器较多,传统的EOR、MOR布线模式不能满足需求,因此,在此基础上又做了一些优化。以笔者曾负责的一个项目为例,机房部署约50个服务器机柜,以每台机柜安装10台机架式服务器,一台服务器布放5条网线进行估算,共需布放2500条网线,这么多网线显然是两个配线机柜无法承载的。因此,综合布线方式是建设一列配线机柜,根据功能划分为网络配线机柜和服务器配线机柜。网络设备与服务器均成端在配线机架UTP上,这样当需要开通业务时,一般只需在配线架之间跳线即可。
这种布线方式优点是技术成熟,节省成本,但缺点也很明显,需要布放大量网线,网线距离过长时,降低了网络速率,此外,大量的网线对机房线梯造成了较大的负荷。这种布线方式适用于小规模的云资源池。
3 交换机TOR布线方式
传统的EOR、MOR布线方式存在着网络延迟、布线量大等特点,可见不适用于对网络延迟有很高要求、服务器规模大的大型数据中心机房。因此,针对大型云计算数据中心机房,需要一种对网络延迟影响更小,网线布放更少的方案。针对云计算数据中心机房,我们可以选择交换机TOR的布线方式。
交换机TOR布线方式是在每个服务器机柜的上端部署1-2台两台接入交换机,基于节省成本考虑,可选择低端交换机,目前机房常用48个千兆端口和4个万兆端口的接入交换机。机柜的服务器通过铜缆跳线接入到机柜内的TOR交换机上,交换机上行端口通过光缆采用万兆链路接入到EOR/MOR的网络机柜中的汇聚交换机上。
以笔者参与的某大型云计算中心为例,服务器机柜顶端部署2台TOR交换机,服务器通过千兆网线接入TOR交换机,TOR交换机上行通过万兆链路接入汇聚交换机。TOR布线方式简化了服务器机柜与网络机柜间的布线,减少了机房水平线梯的布线密度。从每个服务器机柜到网络机柜的光纤数量较少,一般情况下,每台TOR交换机4个万兆上行即可满足业务需求。由于节省了机柜内的布线空间,从而使机柜中服务器的密度可以提高,对于42U高的机柜,如果采用交换机TOR布线方式,则每个机柜可部署15-30台1U高度的高密服务器,大大节约了宝贵的机架空间资源。
TOR布线方式的优点在于,对于IT机房而言,机架空间是最为宝贵的资源,TOR的方式机柜内去除了布线系统的配线空间,从而可以提高服务器安装的密度。传统的服务器机柜一般不超过安装10台服务器,采用TOR方式,可以将可安装的服务器数量提升2~3倍。同时布线在机柜内全部采用跳线,平均长度很短,减少了网络的延时,这一点对云计算中心尤为重要,可以大大提升用户对业务质量的感知。TOR布线上行均采用光纤,一方面对业务进行了汇聚,另一方面减少了大量铜芯线缆,消除了采用EOR方式大量线缆上行布线方式对桥架所形成的压力。
TOR布线方式的缺点在于,首先TOR交换机一般是48个千兆端口用于服务器接入,而目前机柜最多部署30台服务器,从而造成了TOR交换机端口较多的闲置,浪费了交换机的端口资源,从而间接的增加了部署成本。其次,增加了交换机意味着增加了机房的能耗,也就增加了设备维护成本。再次增加了有源设备,提升了网络风险。但综合以上的特点总体分析后可以发现,与传统数据中心不同,云计算数据中心设备移动、变更较少且更关注密度与低延时的要求。对于规模化部署的云计算数据中心机房来说,TOR布线方式的优点带来的好处远大于缺点所造成的负面影响。
4 结束语
本文分析了传统IT机房EOR布线方式和云计算数据中心机房TOR布线方式的优缺点,针对云计算数据中心机房,采用TOR的布线方式显然更有利于数据中心的发展方向,以笔者多个大型云计算数据中心项目的实施案例,在大型数据中心机房,目前均采用TOR布线方式。但对于规模不大的云资源池或IT机房,则要考虑各种布线方式的优缺点,选择性价比最优的方案。
作者简介
1.苏中波(1977-),女,重庆市梁平县人,硕士。现任职于广东省电信工程有限公司,工程师,一级建造师,2000年毕业于南京邮电大学通信工程专业,主要从事IT专业技术研究以及项目管理工作。
2.兰泽勇(1978-),男,湖北省黄冈市人,硕士。现任职于中睿通信规划设计有限公司,高级工程师,全国注册咨询师,2000年毕业于华南理工大学通信工程专业。主要从事核心网专业和IT专业网络规划设计工作。
作者单位
关键词:高效制冷;水平送风;冷热通道; 刀片服务器
中图分类号:TP273 文献标识码:A 文章编号:1009-3044(2014)04-0856-02
高效制冷的急迫性是对于大多数数据中心机房而言的.电力容量是一定的,制冷消耗多了,IT设备所能够使用的电力自然就减少了。根据统计,制冷己占数据中心机房能耗的45%左右,严重影响了数据中心机房的效率。
由于制冷不能够散热需求,很多用户所采取的方法,就是降低机柜内部的数量,在很多情况下,一个42U的机柜,经常只放置了一台刀片服务器。依靠减少机柜内部IT设备的数量来缓解供电和制冷的压力,这种方法得不偿失,会降低机房空间的利用率。
数据机房高效制冷,不仅是节能减排的需要,对于数据机房稳定运行同样重要.很多数据机房不同程度的存在超量制冷,这并不能够从根本上杜绝局部热点。制冷设计不合理,施工不专业,都会影响数据中心的效率。
1 制冷效率偏低原因分析
制冷是非常系统化的过程,即便都采用高效风机,但其效果还是有差异。“我们可以列举很多原因,方方面面都会对数据机房制冷产生一定的影响,仅仅重视机房空调机组性能是不够的”。 数据机房的设计单位,在涉及制冷部分,会与机房专用空调厂家进行沟通。经验不同,在设计方案的合理性上就会存在差异。
机房专用空调厂家并不是仅仅提供简单的产品,而是要承担后续的配套环节,从施工到产品质量把关、认识不足和设计缺欠是导致数据机房制冷低效的主要原因,对制冷方案进行改进,有些几乎无需花费成本既可解决,比如为机架加装隔板,就可以防止气流紊乱,如图1。机架设计对制冷效率的影响也很大,因为它对气流的作用很关健,维护也会产生重大影响,比如日常维护及卫生清洁。如图1。
2 高效制冷之道
2.1按需制冷
“按需制冷”就是对需要冷空气的IT设备提供适量的冷却空气,不需要的尽量减少空调冷量损失。在使用空调设备本身制冷方式,而室外散热方式又无明显改观的情况下,加强空调室内气流组织管理,实现按需冷却是提高制冷效率途径之一。
气流组织,室内机和外机的匹配,外界环境条件充分利用,加强冷热通道隔离、增加挡板、架设可调风量、通风地板以及采用EC风机等,都对数据机房制冷效率具有很大的影响。
在方案的选择上,冷冻水方案,比风冷/水冷的直接膨胀式更有效率,在可能的情况下,应该尽量采用冷冻水方案。
2.2水平送风
数据机房采用水平送风空调配合冷通道封闭组件能够缩短空调送回风距离,减少空气短路,有利于提高空调制冷效率,关于制冷设备,室内的设计保证制冷设备与热点之间的最大温差,但是同时确保这两点之间的最短距离,这是减少风机耗机耗电的有效方法,同时这样能够根据IT运行状况驻点调节制冷容量。
随着刀片式服务器被广泛采用,大量热量都被聚集到一个区域,需要采用气流封闭措施使温差最大化,水平送风是非常好的选择,如图2。其余的设备可与使用普通的CRAC机组,并注意避免发生压力过高或者完全无压的状况。
采用刀片服务器容易使服务器产生局部热点,刀片服务器用电巨大,导致所产生热量也大,在这种情况下,为普通服务器机柜所设计的风空调冷却环境中,使用刀片必然会带来热点,但空调环境经过精心设计,使用刀片服务器并不会热、引起热点。刀片服务器是目前的发展应用方向之一,由此必须面对电源,制冷方面所带来的新的挑战。
2.3封闭冷通道
水平送风可能已经不是准确的用语,因为水平送风和冷或热通道封闭,是每个用户关注的另外一个话题,水平送风贴近热源的确带来很多好处,可以减少室气压力,风机耗电等问题的困扰。水平送风和冷或热通道封闭,在机房中心指定位置,按照实际热量精确调节制冷容量。甚至可以将虚拟服务器从一个机架转移到另一个机架,以便充分利用部分行间制冷装置,然后将其它装置的耗电减少到接近零点,它能够有效保证数据机房中心的效率。
对于数据中心机房IT 设备而言,要带走设备所产生热量,与两个因素有关风量、以及风的温度。某个机柜、机架所需要的风量,与该机柜的功耗。空气的比热容、空气密度以及机柜出风口与进风口的温度差有关,其中,机柜的功耗、空气的比热容、空气密度在房内基本上是不变的,因此,所需要的风量就只与机房出风口与进风口的温度差有关。对IBM服务器而言,所要求的进出风温度差为11度。
在保证了风量的同时,保证进风温度,满足机架设备散热的需求。在实际的工作中,进风温度可以满足需求,但仍然产生了过热现象,就是受制于冷风气流的影响。与冷水相比,冷风气流难以被约束。冷风气流的对流、短路,以及与热回风气流的混合,均会造成散热偏离设计值,产生局部热点,影响数据中心的稳定运行。与此同时,对流、短路所造成浪费,也会将降低空调机的工作效率,浪费电能。
采用冷热通道交替,通过高架地板形成冷风净压箱的方式,采用下送冷风,上回热风的方式,其效果大大改善。但是需要注意的问题是,由于流速的问题,有事会导致部分出风口风压不足,影响散热的效果。在实际工作中,部分出风口会采用辅助送风单元,增加出风量。
此外,采用下送风、上回风的方式,需要注意在机柜上部,冷风与热回风注意会混合,影响机柜上1/3部分设备的效果。为了消除气流混合,应该对冷通道或者热通道进行封闭,
组织气流混合。这种下送风、上回风的气流控制方式,是目前普遍采用的方案。如图3。
关键词:数据中心;服务器虚拟化;绿色节能
中图分类号:TP392文献标识码:A文章编号:16727800(2012)008013803
基金项目:韩山师范学院青年基金项目(413809)
作者简介:陈希楠(1985-),男,韩山师范学院教育信息技术部助理实验师,网络工程师,研究方向为网络设计与管理、网络安全。
0引言
随着我国教育信息化的深入,各高等院校的网络建设发展日趋完善。近年来,各高校校园网覆盖面迅速扩大,建设水平逐步提高,应用面不断扩展,如今的校园网已和广大师生的工作、学习和生活紧密联系在一起。一方面校园网方便了师生通过互联网及时了解国内外资讯,有助于提高教学水平;另一方面,将现有的各信息系统的数据进行合理整合,建立一个安全、快捷的数据中心,为高校的信息化建设提供基础平台。随着校园网的不断建设,网络应用的需求日益增长,数据中心在建设与管理上面临的问题也越来越突出。如何对数据中心基础设施合理规划、建设和管理,有效应对各种威胁和灾害,确保数据中心基础设施安全,保障信息系统和网络应用服务的连续性,同时注重节能降耗,是建设好高校数据中心的重要课题。
1数据中心概述
数据中心是一整套复杂的设施,不仅包括了计算系统、存储系统和网络通信系统,还汇聚了电力设备、环境控制和安全监控等。数据中心是数据的构建、保存、更新、集成、分发与共享,以及提供存储、容灾、备份等信息服务的基础环境,实现数据的集中存放和应用的集中处理。高校数据中心主要作用是校园网资源整合;提供高速稳定的互联网接入服务;架设合理的数据结构,方便各信息系统间的数据交换和共享。经过十多年的发展,数据中心已经成为高校信息化建设的核心。
虽然各高校数据中心的设计规划与建设日趋规范,但是仍然有很多新问题浮现出来:大量IT资源的集中导致管理的效率问题,机房的资源紧张而如何实现动态扩展问题,建设“节约型校园”实现节能减排要求而带来的绿色节能问题,云计算和虚拟化等新技术发展带来的新一代数据中心架构的问题等等。
2校园网数据中心现状问题
现今,高速发展中的高校数据中心面临着多方面的挑战:①由于缺乏合理规划,可持续发展能力不足,传统的架构已无法满足新一代高校信息化的发展需求;②能效成本高,服务器大部分时间处于低负荷状态,电力供应和制冷能源消耗巨大;③资源利用率低,服务器、数据存储利用率低,数据重复存储,资源浪费严重;④管理水平有待提高。因此,对数据中心的各子系统进行重新规划,在提高其工作效率的同时降低其能源消耗,构建绿色数据中心已成为高校数据中心建设的重要任务。
2.1我校数据中心现状分析
我校数据中心主要存在着以下几方面的问题:
2.1.1供配电系统
(1)近年来机房服务器数量随着网络扩展增加,用电负荷有显著增长,有几路供电线路甚至出现高峰期发热量过大的问题,存在安全隐患。
(2)UPS的部分蓄电池已经超期,导致UPS的续航能力有限,当雷雨季节校园供电不稳定而导致中心机房电力供应中断时,无法维持机房的设备与制冷系统的长时间运行。
2.1.2空调系统
(1)现通过5台3匹的普通空调,4台运行1台备用的运行策略进行温度控制,并不能很好地保持数据中心机房的恒温、恒湿的要求。
(2)随着服务器数量的增长,对温度控制的效果较差,普通空调由于24h的不间断运行,故障率高。
(3)空调的摆放布局不合理,为达到降温目的,过度冷却,浪费能耗。
(4)没有规划好冷热气流组织,造成冷热空气混合,降低了制冷效果,增加了制冷设备负载。
2.1.3服务器
(1)设备成本高,随着各部门信息化建设步伐的加快,各种不断上马的信息系统增加了很多的服务器,增加了预算成本。
(2)数据中心空间紧张,服务器数量不断增长,使得设备的密度过高。
(3)系统情况复杂、维护量增大,造成管理上的困难。
(4)新服务器和应用的部署时间长,大大降低服务器重建和应用加载时间。
(5)资源平均利用率低。大部分服务器利用率都在20%以下,甚至长期闲置,而有些服务器又长时间满负荷运转,彼此不能互补,系统性能得不到优化,资源利用不充分。
3校园网数据中心机房改造设计方案
作为支撑业务系统平稳运行的平台,数据中心首先要关注各信息系统能否安全、可靠运行,能否满足校园网未来扩容的需要,在此前提下,有效提升设备的使用效率,节约运行能耗。数据中心改造的方案应该综合考虑数据中心的高可用性和节能减耗,才能达到绿色的效果。通过以上对我校数据中心的现状分析,结合实际情况,有以下建设与管理方案。
3.1供配电系统
2012年,大众报业集团开始规划和建设新的数据中心,新的数据中心使用面积达600平方米,是原有机房的2倍多。既要服务报纸新闻采编的传统业务,也要支持网站、广电、移动互联、云服务等新的大数据需求,并考虑未来的扩展性。为此,我们提出了“立足报业、服务转型、适度超前、节能环保”的思路和原则。在规划和建设数据中心上,满足当前业务需求,着眼未来5~10年的发展需要,不盲从新技术新产品,根据实际情况,科学合理地设计好机房精密空调和不间断电源系统(UPS)的系统架构、配置。下面就这两方面进行探讨。
数据中心机房的制冷
电子信息设备要求机房精密空调提供运行可靠性高、高精度控制温湿度、经过过滤净化的空气环境。设计机房制冷主要考虑以下几个关键点。
1.热负荷计算
数据中心机房的热负荷主要构成因素有:电子信息设备的散热;建筑围护结构传入的热量;照明散热;人体散热;新风负荷。其计算方式一般采用功率及面积法:①
Qt=Q1+Q2
Qt,总制冷量;Q1,机房内设备热负荷(设备功率×0.8~0.9);Q2,环境热负荷(0.12~0.18KW/m2×机房面积)。
2.制冷方式
机房精密空调主要分为风冷、水冷、双源等几种制冷方式。风冷式运行维护简单,设备投资相对较低,适合应用在北方水资源缺乏的地区,能耗要高于水冷机组。水冷式设备投资高,对场地要求高,适合南方水资源丰富的地区和独立建筑的公用大型数据中心,制冷效率要高于风冷机组。报业集团的数据中心多为自用的、建于办公楼内的机房,从投资性价比、可靠性和实用性上考虑,在构建数据中心时我们首选风冷式精密空调机组。
3.气流组织
气流配置上,引入冷热通道分离概念,采用地板下机柜前送风,地板上机柜后回风的模式。合理设计机柜布局,采用面对面、背对背布置。冷风从机柜前进入,经过设备后热风从机柜后端出,通过上方的回风口回收到空调室内机组(如图),提高了冷量的利用效率。
随着私有云、刀片服务器、大数据存储技术在报业集团的应用,高功耗设备越来越多。合理有效地布置设备,将高功耗设备放在空调有效风量最高的位置,有助于避免局部环境过热。
4.机房空调的节能降耗
PUE值(Power Usage Effectiveness,电源使用效率,数据中心总能耗/IT设备能耗),是评价数据中心能源效率的指标。当前,国外先进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2~3之间。据统计,空调系统占数据中心机房能耗的40%左右,所以降低机房空调的耗电量可以有效地降低机房的PUE值。
在降低PUE值方面,除了上面提到的有效的气流组织外,还可以通过机房空调联机控制技术,通过智能群控功能,使机房内的多台空调像整体一样联合工作,实现空调机组之间的相互热备份、轮巡;根据机房负荷动态调整机组运行数量,协调群组内空调机组避免竞争运行,实现整个空调系统的高效运行。
对于高密度设备较多的数据中心,可以引入封闭冷通道、“行级”空调等技术。另外,选用带EC风机的空调也可以有效降低空调功耗,提高整体PUE值。
不间断电源系统
随着IT业的飞速发展,数据中心对不间断电源系统提出了更高的要求:一是更高的可靠性;二是更高的容量及可扩展性。
1.UPS的容量
确定不间断电源系统的基本容量时应留有余量,不间断电源系统的基本容量可按下式计算:
E≥1.2P,②其中:E表示不间断电源系统的基本容量,P表示电子信息设备的计算负荷。
2.UPS系统架构和可利用率
当前,数据中心多采用UPS单机供电系统、N+1冗余并机、N+X模块化冗余并机、2N双总线冗余,依靠冗余来尽量避免供电系统的单点故障。③
UPS单机供电,其系统可利用率99.99%~99.996%,每年可能发生的停电时间为20~50min,符合TIA-942等级2(T2)标准,以及国家C级信息系统机房标准。
N+1并机,其系统可利用率99.999%(每年平均停电时间5min),单电源负载系统可用率99.9999%(每年平均停电时间32s),意味着供电系统每年可能发生的停电时间为0.5~5 min,符合TIA-942等级3(T3)标准,以及国家B级信息系统机房标准。
2N双总线,其系统可利用率达99.99999%(每年平均停电时间3s),单电源负载系统可用率99.999999%(每十年平均停电事件3s),意味着供电系统可能发生的停电时间为每十年3s~每年3s,符合TIA-942等级4(T4)标准,以及国家A级信息系统机房标准。
可靠性高低依次为2N双总线、N+1并机、UPS单机供电。然而从经济性上来讲,刚好相反,2N双总线造价最高,N+1其次,UPS单机供电造价最低。
3.UPS关键指标
UPS在供电系统中,对上游电网而言属于用电设备——负载,关键在于降低对电网的回馈污染,提高对恶劣电网的适应能力;对于下游电子信息设备而言属于供电设备——电源,关键在于向负载提供安全、纯净的高质量电源。对于数据中心机房UPS的关键指标级要求应该考虑:满负荷的输入功率因素;电流谐波失真度(满负荷和50%负荷);过载能力,要能承载高达150%的过载,要求时间不应小于1min;满负载和50%负载条件下的输出功率因数;UPS应自带静态旁路和市电维修旁路。
在供电系统设计上,应根据实际情况,科学合理地设计好整体架构、系统容量以及UPS设备的关键指标,既要追求高可靠性、安全性,又不能不考虑自身实际发展需求,避免造成资源浪费和经济负担。根据我们集团的实际情况,数据中心参照国家B级机房设计,在供电上同时达到国际TIA-942的T3标准。
结 语
目前,在数据中心的制冷和电源系统技术上提出了很多新的解决方案和技术,例如在机房空调上引入了定点送风,在UPS供电系统上出现了模块化UPS、飞轮UPS、高压直流及动态UPS等技术,④并已开始应用。报业集团可以根据自身实际情况,采用最合适的方案。总之,就是既要满足业务需求的飞速发展,提供更高的可靠性、可用性,又要提高机房的PUE值,节能降耗,构建节能环保型的绿色数据中心。
注释:
①蔡建旅:《大型数据中心的空调设计和运行》,《中国科技信息》,2011年第17期
②中华人民共和国工业和信息化部:《电子信息系统机房设计规范》,GB50174-2008
③李成章:《数据中心机房用IT设备对UPS供电系统的技术要求》,《电气应用》,2009年第18期
【关键词】云数据中心;绿色节能机房;电气设计
引 言
电气系统是数据中心机房的核心组成部分。随着信息资源整合的加速和信息化水平的进一步提高,企业对数据中心机房电气系统的可用性和运行效率提出更高要求。对于企业级数据中心机房电气系统的建设,从设计阶段就应该紧紧围绕数据中心机房电气系统相关设计原则和技术标准,结合企业信息化发展需求、技术发展趋势和建设条件,针对性地开展设计工作。
本文以某大型央企数据中心机房设计为例,对企业级云数据中心绿色节能机房电气设计进行研究,以期为类似项目电气设计提供参考。
一、某大型央企数据中心绿色节能机房电气设计核心需求和总体设计思路
1、核心需求和设计难点
某大型央企为加强核心数据资源的管理和共享水平,基于“运行中心、本地备份中心、云服务中心、开发测试培训中心”三位一体的建设定位,开展了公司云数据中心建设,核心需求和设计难点主要体现在四个方面:
(1)大规模的云服务对机房空间、供电、制冷等基础支撑能力的要求;
(2)全集团数据资源和核心应用系统集中部署、综合利用对机房高可靠性的要求;
(3)当地湿热气候条件下对机房绿色节能的要求;
(4)动态云服务能力对机房各系统灵活扩展的要求。
2、电气系统设计目标
(1)机房内的电气系统设备应按容错系统配置,在系统运行期间,场地设施不应因操作失误、设备故障、外电源中断、维护和检修而导致电子信息系统运行中断。
(2)不间断电源系统配置:2N
(3)不间断电源系统电池备用时间:15min
(4)柴油发电机做为不间断电源系统的后备,准实时切换
3、设计思路及设计原则
按照行业建设要求,并结合未来发展趋势,公司云数据中心机房建设应具有国际国内先进性,同时要根据计算机设备的快速发展,具有相应的适应能力,打造既满足目前需求,又能适应未来发展的节能、环保、减排的“绿色”数据中心。因此,机房电气系统在设计中遵循安全可靠性原则、灵活性及可扩展性原则、绿色环保性原则以及节能降耗原则
二、低压配电系统设计
1、UPS配电系统设计
计算得出机房IT设备的UPS用电总量约为1119.81KVA,则机房UPS系统的总容量设计为1200KVA。设计采用两组每组3台400KVA UPS以2×N双总线模式运行。为保证电源的可靠性,设计为每组UPS系统配备30分钟后备电池。
IT设备UPS系统主要为各机房模块内网络设备、计算机设备等IT设备提供电源,辅助设备UPS系统主要为精密空调、备用照明、冷冻水泵等提供电源。分别在机房区设置低压配电室A和低压配电室B各设置3台400KVA UPS,3台UPS并机运行。两组UPS按2N模式运行。各配电室分别设置相应UPS系统的UPS输入柜、并机输出柜,在各机房模块内每三列机柜设置一台精密配电柜,为每个机柜配置2路220V/16A或2路220V/32A电源,每路电源均来自独立的开关。
UPS电源布线采用放射式配电方式配至各用电设备,并采用专用电力电缆沿地板下的金属桥架敷设到位,这种布线方式具有灵活方便、加线、改线、便于维修等功能。
2、动力配电系统设计
设计动力配电系统包括冷水机组、水泵、机房专用空调、新风机组、照明、辅助插座等供电。动力配电中重要负荷如水泵、机房专用空调、备用照明等设计采用双路电源切换放射式配电,其中备用照明一路来自UPS电源。
配电系统采用交流50HZ,三相四线380V/220V。接地系统采用TN-S方式,零线和地线分开设置。配电柜由自动空气开关控制,设过负荷、短路保护等功能,并设有电压、电流的检测指示,能实现远程监控功能。
分别在机房区设置低压配电室A和低压配电室B设置各自动照配电柜。各楼层分区域供电。
3、配电室\电池室规划
两组UPS系统设计安装在机房所在层的两个不同防火分区的房间内(即设两个配电室),可保整任何一套UPS系统分任何一个节点出现故障都不会影响整套系统的正常供配电,最大限度保证供电系统的安全可靠性。
三、照明系统设计
照度要求:按《电子信息系统机机房设计规范》(GB 50174-2008),信息化机房要求>500lx,辅助区域>300lx。
根据国家有关标准并结合本工程的实际情况,机房内设计安装双管格栅LED灯,设计照度大于500LX。配电室、电池间设计照度大于300LX。应急照明照度设计大于50LX。应急照明由UPS电源供电,并均匀布置无死角。以保证上机人员紧急处理存盘以后撤离,同时在楼道的出口处设置自带蓄电池型(延时时间大于90分钟)应急出口标志灯。机房灯具采用智能照明系统控制,可依据具体使用需求改变场景设计,达到节能与照明效果的平衡;其他区域灯具采用分区、分组控制方式。
四、机房防雷接地系统设计
该工程采用机房内三级防雷的防护方式,在机柜用PDU装设三级过电压保护器,对计算机设备进行精细保护。按照《建筑物电子信息系统防雷技术规范》(GB50343-2004)以及国家建筑标准设计图集02D501-2《等电位联结安装》,本机房接地系统采用大楼联合接地,要求其接地电阻R1。接地系统采用TN-S方式,零线和地线分开设置。
在机房内沿墙和机柜敷设30x3铜带,采用6mm2铜线以最短距离将计算机设备与铜带相连。在机房活动地板下采用25mm2的编织铜带敷设构成间距小于1.2m×1.2m的接地网格,并与均压等电位带(30×3铜带)在地板下连接成环状,组成等电位接地网络。机房内机柜、配电柜外壳、地板支架、线槽等正常不带电金属导体均通过导线与此接地网相连,并通过电缆与大楼预留联合接地体可靠连接。
五、总结
机房在供配电设计满足可靠性、可控性、冗余度、可扩展性等要求,设计亮点总结如下:
1、无单点故障:从大楼进线电源高压配电柜变压器低压配电柜UPS电源输入总柜UPS电源UPS电源输出总柜UPS电源分配柜开关电缆插座等,从始至终均为A、B两组双备份。
2、配电精细化管理:机房供配电系统的各级配电柜均配置可远程监控的智能仪表,配电柜预留监控接口,便于形成DCS集散控制系统,实现了系统实时监控的性能。
3、不停机扩容:在配电系统UPS设备选择上采用多台UPS并机实现,以便满足负荷逐渐增加,UPS可随之逐台增设的方式,来节约初期投资成本及运营成本。在末端配电柜的设计上,也采取了逐步扩展的设计方案,以利于用户节约运营成本。
4、绿色电源:选用了得实LED灯具,LED光源作为一种节能环保的产品,已经逐渐被更多的用户选用,本工程选用的产品亮度高。省电、寿命长、免维护,可直接代替传统白炽灯。
辅以机房专用风冷冷水机组设计、冷通道封闭设计和整体机柜设计,预计将使数据中心满荷载PUE值降至1.6以下。
参考文献:
[1]王洪亮. 云数据中心操作系统设计与实现[D].山东大学,2012.
数据中心基础设施的建设,很重要的一个环节就是计算机机房的建设。计算机机房工程不仅集建筑、电气、安装、网络等多个专业技术于一体,更需要丰富的工程实施和管理经验。计算机房设计与施工的优劣直接关系到机房内计算机系统是否能稳定可靠地运行,是否能保证各类信息通讯畅通无阻。
由于计算机机房的环境必须满足计算机等各种微机电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求。所以,一个合格的现代化计算机机房,应该是一个安全可靠、舒适实用、节能高效和具有可扩充性的机房。
本方案项目包括装修工程、配电工程、空调工程、设备监控工程、闭路电视工程、安全工程、消防工程等七大部分。本方案书根据国家标准及行业标准设计和施工。
1.1 设计原则
吉通上海公司数据中心机房是吉通上海公司的基础设施,数据中心的设计必须满足当前各项需求应用,又面向未来快速增长的发展需求,因此必须是高质量的、高安全可靠灵活的、开放的。我们在进行设计时,遵循以下设计原则:
实用性和先进性:
采用先进成熟的技术和设备,满足当前的需求,兼顾未来的业务需求,尽可能采用最先进的技术、设备和材料,以适应高速的数据传输需要,使整个系统在一段时期内保持技术的先进性,并具有良好的发展潜力,以适应未来信息产业业务的发展和技术升级的需要。
安全可靠性:
为保证各项业务应用,网络必须具有高可靠性,决不能出现单点故障。要对数据中心机房布局、结构设计、设备选型、日常维护等各个方面进行高可靠性的设计和建设。在关键设备采用硬件备份、冗余等可靠性技术的基础上,采用相关的软件技术提供较强的管理机制、控制手段和事故监控与安全保密等技术措施提高电脑机房的安全可靠性。
灵活性与可扩展性:
吉通上海公司一个快速发展的信息产业公司,所以其数据中心机房必须具有良好的灵活性与可扩展性,能够根据今后业务不断深入发展的需要,扩大设备容量和提高用户数量和质量的功能。具备支持多种网络传输、多种物理接口的能力,提供技术升级、设备更新的灵活性。
标准化:
在数据中心机房系统结构设计,基于国际标准和国家颁布的有关标准,包括各种建筑、机房设计标准,电力电气保障标准以及计算机局域网、广域网标准,坚持统一规范的原则,从而为未来的业务发展,设备增容奠定基础。
工程的可分期性:
在该IDC项目设计中,数据中心机房的工程和设备都为模块化结构,相当于将该工程分期实施,而各期工程可以无缝结合,不造成重复施工和浪费
经济性/投资保护:
应以较高的性能价格比构建吉通上海公司数据中心机房,使资金的产出投入比达到最大值。能以较低的成本、较少的人员投入来维持系统运转,提供高效能与高效益。尽可能保留并延长已有系统的投资,充分利用以往在资金与技术方面的投入。
可管理性:
由于吉通上海公司数据中心机房,具有一定复杂性,随着业务的不断发展,管理的任务必定会日益繁重。所以在数据中心的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理监控,实时监控、监测整个电脑机房的运行状况,实时灯光、语音报警,实时事件记录,这样可以迅速确定故障,提高的运行性能、可靠性,简化机房管理人员的维护工作,从而为其数据中心机房安全、可靠的运行提供最有力的保障。
1.2 工程和设备的技术标准
其他重要标准
建筑部分参照标准
国家标准《电子计算机机房设计规范》(GB50174-93)
国家标准《计算站场地技术要求》(GB2887-89)
国家标准《计算站场地安全技术》(GB9361-88)
国家标准《计算机机房用活动地板的技术要求》(GB6650-86)
国家标准《电子计算机机房施工及验收规范》(SJ/T30003)
电力保障部分参照标准
《低压配电设计规范》(GB50054-95);
《电子计算机机房设计规范》(GB50714-93);
《计算站场地技术要求》(GB2887-89);
《供配电系统设计规范》(GB50052-95);
《高层民用建筑设计防火规范》(GB50045-95);
《电气装置安装工程接地装置施工及验收规范》(GB50169-92);
综合布线部分参照标准
中国工程建设标准化协会标准-建筑与建筑群综合布线系统工程设计规CECS72:95
Lucent SYSTIMAX结构化布线系统设计总则
1.3工程范围
吉通上海公司数据中心机房的施工范围和主要项目是:
建筑部分
国产沈飞抗静电全钢活动地板敷设
不锈钢饰边框大玻璃隔断安装或乳胶漆饰面石膏板隔墙
高级乳胶漆装饰墙面
各类门安装
电气工程部分
机房动力配电系统;
机房UPS电源配电系统;
机房照明及应急照明系统;
机房直流地极、直流地网及静电泄漏地网;
配电柜、配电箱制作安装;
各类用电设备安装;
配电系统消防联动部分
空调新风系统
空调机安装;
新风系统制作安装、新风机安装;
排风系统制作安装、排风机安装;
门禁系统
入口门处设置不同的进入等级。
保安监控系统
设置摄象接头,监控设备。监控设备设在中控室。
漏水检测系统
对空调机及其上下水管设置定位漏水检测系统。
消防报警及自动灭火系统
采用智能型火灾报警系统,设置烟感、温感探测器。
采用FM200全淹没式气体灭火系统,使用自动、手动及机械操作。
*场地监控系统(监控)
对下述系统及设备提供24小时全天候监控。
UPS不间断电源
配电柜
柴油发电机(如有)
保安监控
消防与自动报警系统
气体灭火系统
门禁系统
漏水检测系统
其他
1.4项目需求分析
1.4.1工程简介
上海吉通数据中心机房可用总面积约为1600平方米。
前厅接待区企业形象、公司背景说明
会议室办公家具、电子黑板及空调机等
演示厅视频演示系统、PC机及空调机等
办公室办公家具和设备、空调机等
配电室UPS电源、后备电池、配电柜、空调机等
网管计费中心计费系统、视频系统、空调机等
客户办公室办公设备、PC机空调机等
监控室图像、动力监控系统、空调机等
气体钢瓶间气体钢瓶、支架管路、启动钢瓶
值班室火灾报警控制盘、联动控制盘
1号机房区机柜、计算机及网络设备、精密空调等
2号机房区机柜、计算机及网络设备、精密空调等
若:机房层高为3.6米,梁下高为3.1米,活动地板高0.4米,机房设计净高2.7米。
1.4.2需求分析
上海吉通数据中心机房项目建设的目标为:为今后的业务的进行和发展提供服务。数据中心机房项目建设要求提供可靠的高品质的机房环境。一方面机房建设要满足计算机系统网络设备,安全可靠,正常运行,延长设备的使用寿命。提供一个符合国家各项有关标准及规范的优秀的技术场地。另一方面,机房建设给机房工作人员网络客户提供了一个舒适典雅的工作环境。说到底,计算机房是一个综合性的专业技术场地工程。机房具有建筑结构、空调、通风、给排水、强电、弱电等各个专业及新兴的先进的计算机及网络设备所特有的专业技术要求。同时又要求具有建筑装饰、美学、光学及现代气息。因此机房建设需要专业技术企业来完成。从而在设计和施工中确保机房先进、可靠及高品质。只有既满足机房专业的有关国标的各项技术条件,又具有建筑装饰现代艺术风格,有新的立意的机房,才能充分满足业主的使用要求。
1.4.3方案描述
上海吉通数据中心机房机房面积1600平方米,设有三个数据机房、客户办公室、监控室、UPS配电室、网管及计费中心、演示厅、办公室、会议室及前台接待厅等。
机房设配电室,安装UPS电源,并设有主配电柜、电池柜、计算机配电柜、照明配电箱,对机房配电系统全面管理。
机房配电设UPS电源配电、空调动力及照明配电,并做直流地网和静电泄漏地网。
机房单独设空调系统棗机房专用空调方案,选用德国STULZ公司型号为MRD-1324A/MRD-993A空调机。
机房采用门禁系统,机房大门、工作间、网络配线室、设置门禁。
机房设置消防与自动报警系统,并设置FM200气体灭火系统。
1.4.4对土建结构方面的要求
1.电子计算机机房的建筑平面和空间布局应具有适当的灵活性,主机房的主体结构宜彩大开间大跨度的柱网,内隔墙宜具有一定的可变性。
2.主机房净高,应按机械高度和通风要求确定,宜为2.4~3.0M.
3.电子计算机机房的楼板荷载可按5.0~7.5KN/M2设计。UPS电源室的楼板荷载可按8.0~1.2KN/M2设计
4.电子计算机机房主体结构应具有耐久、抗震、防火、防止不均匀沉陷等性能。变形缝和伸缩缝不应穿过主机房。
5.主机房中各类管线宜暗敷,当管线需穿楼层时,宜设技术竖井。
6.室内顶棚上安装的灯具、风口、火灾控测器及喷嘴等应协调布置,并应满足各专业的技术要求。
7.电子计算机机房围护结构的构造和材料应满足保温、隔热、防火等要求。
8.电子计算机机房各门的尺寸均应保证设备运输方便。
1.5方案总体介绍
1.5.1建筑部分
上海吉通数据中心机房是高科技产业类ISP/ASP用机房。为了机房的安全可靠、正常运行,对该机房的设计必须符合国家标准、行业标准及规范;在防火安全方面,要按照一级防火要求设计。
机房采用恒温恒湿的专用空调,送风方式为下送风上回风的循环送风方向,这样可保证网络通讯设备在恒温恒湿的环境下工作。为了防止精密空调机的加湿器漏水,在每台空调机周围安装了漏水检测报警系统。
为了保证电脑机房内工作人员有一个舒适的工作环境,和保证机房内的空气洁净程度,我们设计了新风系统送入机房,这样既可保持机房内的空气新鲜,同时也能维持机房内的正压需要。
在进入电脑机房的地方给工作人员分别设置了进入权限和历史记录的门禁系统。主机房、工作区、网络配线间及机房入口大门均安装门禁。
1.5.2机房动力配电保障系统
机房辅助设备动力配电系统
机房辅助动力设备包括计算机专用精密空调系统、计算机机房照明配电系统、计算机机房新风系统及市电辅助系统(市电插座等)。由于机房辅助动力设备直接关系到计算机设备、网络设备,通讯设备以及机房其他用电设备和工作人员正常工作和人身安全,所以要求配电系统安全可靠,因此该配电系统按照一级负荷考虑进行设计。
电源进线采用电缆或封闭母线(电源取自建筑物本体低压配电室母线)进线配电柜(AP)与出线配电柜(AP1、AP2)并排安装于机房UPS配电室,采取集中控制,便于管理机房空调设备。各电脑机房及其它房间专用空调电源直接引自开关柜AP1,舒适空调及新风、市电插座引自多用途配电箱AX,体现出集中控制与就地操作相结合的设计原则。
机房计算机设备动力配电系统
机房计算机设备包括计算机主机、服务器、网络设备、通讯设备等,由于这些设备进行数据的实时处理与实时传递,关系重大,所以对电源的质量与可靠性的要求最高。设计中采用电源由市电供电加备用发电机这种运行方式,以保障电源可靠性的要求;系统中同时考虑采用UPS不间断电源,最大限度满足机房计算机设备对供电电源质量的要求。市电电源供电与备用发电机供电在机房配电室进行切换,再经过UPS不间断电源对计算机设备供电。
电源进线采用电缆或封闭母线,双路切换柜、UPS输入输出配电柜并排安装于机房配电室。配电系统采用集中及分散控制,输出配电分柜JAP1—JAP4安装于负荷集中区域(电脑机房及控制室),以便于就地控制、管理设备计算机用电。
1.5.3机房照明配电系统
a. 照度:
机房按《电子计算机机房设计规范》(GB50174-93)要求,照度为400Lx;同时设机房疏散指示灯、安全出口标志灯;应急备用照明照度不小于40Lx.
b. 灯具选择:
灯具选用亚光不锈钢三管格珊灯组并带电容补偿:
3*40W(1200*600)/3*20W(600*600)
接地系统:
a 交流工作地、保护地采用建筑物本体地极,设计考虑为直流逻辑地设一组新的接地极,接地电阻小于1Ω;机房配电系统的交流工作地、安全保护地采用建筑物本体综合接地(其电阻小于0.5Ω)。
b为防止感应雷、侧击雷高脉冲电压沿电源线进入机房损坏机房内的重要设备,在电源配电柜电源进线处安装浪涌防雷器。
正如您所知道的,机房内的供配电系统是机房中建设规划中最重要的内容。所以我们为上海吉通数据中心机房提供的是一个完全解决方案。在设计上我们采用了模块化宽冗余的设计理念,既符合电脑机房配电系统的灵活性,又不会对未来扩容造成瓶颈。
由于目前国内大容量的电气开关各方面性能很难达到电脑中心完全安全意义上的要求,所以我们建议所有核心电气产品一律使用法国梅兰日兰/施耐德的电气设备。从直接成本上看可能会增加一部分投资,但从上海吉通数据中心机房的重要性和安全性以及未来发展考虑,这一投资是非常合理和科学的。
1.5.4空气质量保障系统
为确保机房内计算机系统的安全可靠、正常运行,在机房建设中为机房提供符合要求的场地环境,我们推荐采用梅兰日兰公司德国生产的STULZ恒温恒湿机房专用空调机。
机房专用空调采用下送风、上回风的送风方式。我们为您选择的机房专用空调是模块化设计的,可根据需要增加或减少模块;也可根据机房布局及几何图形的不同任意组合或拆分模块,且模块与模块之间可联动或集中或分开控制等。
机房内的新风系统是必不可少的。清新的新风提高机房的洁净度,使机房保证正压,并提供新鲜空气。新风应满足两个指标:其一,是每人每小时40立方米;其二,是应占空调系统总风量的5~10%.
本机房四周密封,新风极为重要。
根据国家有关规范和标准规定,计算机房内应设排风系统,用以排除可能出现的烟雾及灭火后出现的气体。
1.5.5综合布线(方案另述)
1.5.6门禁系统
在方案中我们设计了多套门禁系统,分别用于电脑机房的入口处和主控机房,是电脑机房安全的保障。可以根据贵方的需要,对各门禁系统进行分级授权,从而实现人员进出的的电子化管理。
1.5.7机房专用空调
根据此数据中心机房的实际情况,我们建议选用恒温恒湿机房专用精密空调。推荐使用的产品为德国生产的STULZ(史图斯)空调机,它可以保证电脑机房拥有一个恒久的良好的机房环境。
1.5.8防雷工程(参考)
根据有关统计资料表明,感应雷电过压幅值在无屏蔽架空线上最高标准达20KV,所以在建设计算机房时应做好防雷工程,以防患于未然。
机房防雷工程一般要做以下几步:
1. 做好机房接地
根据国际GB50174—93《电子计算机房设计规范》,交流工作地、直流工作地、保护地、防雷地宜共用一组接地装置,其接地电阻按其中最小值要求确定。如果计算机系统直流地与其他地线分开接地,则两地极间应间隔25米。
2. 做好线路防雷
1)在动力室电源线总配电盘上安装并联式专用避雷器构成第一级衰减。
2)在机房配电柜进线处,安装并联式电源避雷器构成第二级衰减。
3) 机房布线不能延墙敷设,以防止雷击时墙内钢筋瞬间传导墙雷电流时,瞬间变化的磁场在机房内的线路上感应出瞬间的高脉冲浪涌电压把设备击坏。
1.5.9机房设备监控系统(参考)
随着科学技术的日益发展,计算机在金融、保险、证券、铁路、邮电、电力、海关、税务、国防等领域得到广泛的运用,为保障计算机系统时时刻刻地正常运行,各单位投入了大量的环境设备,诸如低压配电设备、备用柴油机组、UPS、专用空调、消防、漏水报警、门禁设施等等,一旦这些设备出现故障,对计算机系统的运行,对数据传输、存储的可靠性构成威胁。如故障不能及时排除,可能会造成的经济损失是无法估量的,故计算机房的管理工作就显得尤为重要。
目前许多计算机房采用24小时专人值守,定时巡查机房内的环境设备,这样不仅加重了管理人员的负担,造成人力的浪费,而且对事故的发生时间及责任无科学的认定。更重要的是人为的疏忽或值守人员对设备缺乏必要的了解,即使发生故障也不能作出及时的处理,那么损失是无可避免的了。
机房场地设备监控系统不仅对机房供配电系统(分为一次配电、二次配电);不间断电源(UPS)系统;空调系统;消防系统;保安系统(分为门禁系统、闭路监视系统、通道报警系统);漏水检测系统等环境设备具有完善的监控和控制功能,更为重要的是融合了机房的管理措施,对发生的各种事件都结合机房的具体情况给出处理信息,提示值班人员进行操作。实现了机房设备的统一监控,实时语音电话报警,实时事件记录。减轻机房维护人员负担,有效提高系统的可靠性, 理清事件关系,实现机房可靠的科学管理。
根据IDC对计算机房动力及环境设备提出的监控项目及具体要求,选用智能集中监控系统。(见系统结构图)。
各前端智能仪器[如XB-DM8(通用控制器),XB-DIRIS(电量监控仪表),XB-AM17(模拟量采集器),空调,UPS等,通过直接或传感器不断采集前端设备(如进线柜、母联柜、出线柜,消防报警系统,门禁系统,各漏水检测点,环境温湿度测量,电池组,各空调机,各台UPS等)的数据(如电量,电压,温度,湿度,信号状态等等),各前端智能仪器以RS485远程控制网络的型式与工控机的设备驱动板直接相连,实时地将前端智能仪器收集到的设备数据传递到控制中心计算机内进行分析处理,在显示器上显示出来。然后又把监控计算机发出的下一步监控指令进行必要的转换后传送到各前端智能仪器以便执行这些监控指令,从而指挥现场的各设备工作,通过这种高效率、有条不紊的过程,令整个监控系统实现了全自动化。
由于UPS和空调产品经历了几代的变化,从而在功能上也不断增加,致使监控的方式有所不同,早期的产品只有工作信号输出监控的功能就十分简单。近期智能型的即带有通讯接口产品,监控UPS内部各部份的工作状态及工作参数,梅兰日兰UPS、SICON UPS、EXIDE UPS等UPS都是采用RS232通讯接口。因此得先通过RS232/RS485转换器变成RS485总线。UPS的RS232通信接口通过RS232/RS485转换器将转换后的信号直接传送到工控机的设备驱动板的UPS通讯口。从而完成上海吉通所要监控设备的监视与控制功能,实现所有设备的统一界面管理,因此操作和维护起来非常的简单、方便。
2、详细设计
2.1建筑部分
2.1.1设计规范
GB 2887-89《计算站场地技术要求》
GB 9361-88《计算站场地安全要求》
GB 50174-93《计算机机房设计规范》
GB6650-86《计算机机房活动地板技术条件》
GBJ 45《高层民用建筑设计防火规范》
GB 50222-95《建筑设计防火规范》
GB 50054-95《低压配电设计规范》
IEC1024-1:1990《建筑防雷》
ITU.TS.K21:1998《用户终端耐过电压和过电流能力》
GB 50150-91《电气装置安装工程电气设备交接试验标准》
GB 50236-98《现场设备、工业管道焊接工程施工及验收规范》
JGJ 73-91《建筑装饰工程施工及验收规范》
2.1.2设计方案
本方案机房场地装修装璜的设计宗旨是:
(1)集成系统的节能化考虑,新技术的应用,以节约日后的运行成本;
(2)合理的信息路由结构设计,以防止可能造成系统互联的阻塞;
(3)机构紧密的供配电设计,以减少网络设备的电磁干扰;
室内装璜部分的设计遵循原则是:要体现出作为重要信息会聚地的室内空间特点,在充分考虑网络系统、空调系统、UPS系统等设备的安全性、先进性的前提下,达到美观、大方的风格,有现代感。
选用的装璜材料:
在选用装修、装璜材料方面,要以自然材质为主,做到简明、淡雅、柔和,并充分考虑环保因素,有利于工作人员的自身健康。
2.1.3架空地板工程
活动地板在计算机房中是必不可少的。机房敷设活动地板主要有两个作用:首先,在活动地板下形成隐蔽空间,可以在地板下敷设电源线管、线槽、综合布线、消防管线等以及一些电气设施(插座、插座箱等);其次,由于敷设了活动地板可以在活动地板下形成空调送风静压箱。此外,活动地板的抗静电功能也为计算机及网络设备的安全运行提供了保证。
活动地板的种类较多。根据板基材、材料不同可分为:铝合金、全钢、复合木质刨花板等。地板表面则粘贴抗静电贴面(有进口和国产的区别)。活动地板的不同选择直接影响机房的档次。不同质量的地板使用后,机房的效果大不一样。目前国内机房活动地板使用档次高的有德国美露牌抗静电活动地板。该机房采用沈飞牌防静电活动地板。
抗静电地板安装时,同时要求安装静电泄漏系统。铺设静电泄漏地网,通过静电泄漏干线和机房安全保护地的接地端子封在一起,将静电泄漏掉。
此数据中心机房活动地板敷设高度为0.4米,活动地板安装过程中,地板与墙面交界处,活动地板需精确切割下料。切割边需封胶处理后安装。地板安装后,用铝塑板踢脚板压边装饰。铝塑板踢脚板与铝塑板玻璃隔墙互相衬托,协调一致,效果极佳。
机房设计采用下送风方式。楼地面必须符合土建规范要求的平整度。地面最好采用水磨石地面。如地面抹灰应达到高级抹灰的水平。而且地面需要进行防尘处理。通常在地板下的墙面、柱面、地面均刷涂防尘漆两遍。全部水泥面均经刷漆处理,达到不起尘的作用,从而保证空调送风系统的空气洁净。
下面再介绍一下抗静电活动地板的性能、特点。
活动地板主要由两部分组成。
A)抗静电活动地板板面;
B)地板支承系统,主要为横梁支角(支角分成上、下托,螺杆可以调节,以调整地板面水平)。地板规格主要为600*600毫米。
活动地板是易于更换的。用吸板器可以取下任何一块地板。地板下面的管线及设备的维护保养及修理是极其方便的。
活动地板是灵活的。当其中的某一部分需要改变,如增加新的机柜,其扩展极其方便。如需调整地板高度可任意调整。
活动地板是牢固的,稳定的,紧密的。这是毫无疑问的。而且我们所推荐的沈飞地板和钢地板恰恰具备这些优点。活动地板安装的工艺可以保证地板的严密和稳定。调整好不会有响动和摇摆,也没有噪音。至于防鼠,则应在围护结构上解决,尽量不留孔洞。有孔洞如管、槽,则要作好封堵,要绝对保持围护结构的严密。
活动地板安装一定要做到非常严密,表面平整。这取决于两个方面。一是活动地板本身的精度,二是安装工艺和质量。安装的活动地板,给人以高档、豪华的印象。
地板系统的确可以承受较高压力的碾压。在高压力下有较好的持续性。这是因为地板本身承载能力大和板面的硬度高和稳定性好。
活动地板有专用的通风地板。通风地板是单独加工的,钢结构。走线地板加工后都相应地套装塑料出线口,在线口内走线。
地板下,我们一般要涂防尘漆,并考虑粘贴福乐士保温层,以做到保温绝热。
此外,沈飞地板的阻燃性能和系统电阻率均满足国家的有关标准,并通过了权威检测部门的检测,有国家认可的检测报告。
2.1.4玻璃隔墙工程
数据中心机房的隔墙推荐采用发纹饰面玻璃隔墙。玻璃隔墙在机房中的重要作用是显而易见的。最初的玻璃隔墙是在木隔墙上安装固定玻璃窗,然后在八十年代初期大量采用铝合金玻璃隔墙。九十年代初期不锈钢饰面大玻璃隔墙在机房中得到了广泛应用。这种隔墙配合以不锈钢无框自由门,采用12毫米厚玻璃,安全、牢固,壮观气派,透视效果极好,衬托了机房宏观形象。玻璃隔墙的优点确立了它在机房中的地位。在玻璃隔墙实际使用中,最初用做饰面的不锈钢镜面板尽管外形靓丽,但终因易产生眩光而逐步淘汰,代之以发纹不锈钢饰面。
该数据中心机房中大量地采用玻璃隔墙。为安全起见,应该使用钢化玻璃。
机房外围界墙及防火隔墙建议在土建施工中采用轻质土建隔墙,并两面用水泥砂浆抹平。如机房不适宜做土建隔墙,可以采用轻钢龙骨苍松板隔墙(内镶岩棉)。其强度、表面硬度和防火性能指标均能满足要求,且保温、隔热、隔音,是轻质隔墙中的理想材料。其墙厚度约为100毫米。
2.1.5墙面工程
机房中吊顶、地板、玻璃隔墙材质都比较好,价格也高。墙面不管是采用壁纸还是高档乳胶漆,价格虽很低廉,但外观无法与吊顶和活动地板相互衬托。近年来,在高档、先进的机房中主要采用了以下几种材料做墙面:金属复合壁板、铝塑板等。
上述两种材料施工后,所见到的墙体表面相似,均为金属漆面。只是基层结构不同而已。下面分别叙述两种墙面的优缺点。
金属复合壁板是由彩色钢板(0.7毫米)做好50毫米厚的箱型凹凸的板材。其内部垂直粘贴50毫米的优质岩棉。板材在生产线上加工,工艺先进,尺寸精确。安装时,在顶上和地面先安装马槽,然后依次把壁板推入后固定。其表面为钢板漆面,安装后接口缝隙小于1毫米,美观、整齐,缝隙均匀。该壁板又常常用在洁净室,隔音、保温、密封效果好。该墙体有配套的金属壁板门,精致、美观。
铝塑板墙面也是由骨架和面层组成。骨架有两种:一种采用轻钢龙骨石膏板;另一种采用15毫米中密度板,宽150毫米,间距150毫米。中密度板调平后粘贴三层板。在刷涂防火涂料后,作为骨架基层。基层形成后,两面刷胶,晾干后,将铝塑板粘贴牢。铝塑板粘贴时,留缝隙3毫米,注玻璃胶。铝塑板墙面表面为铝板漆面。该种隔墙优点是价格适中,安装方便,表面也很清秀。缺点是缝隙注胶时难度较大。
墙面处理最经济的方法是直接对墙面进行基础处理后(轻钢龙骨石膏板墙),喷涂以高级乳胶漆进行装饰。这种方法既可基本满足电脑机房基础建设技术上 的 要求,也可节约大量的投资,不失为一种务实的处理办法。但必须指出的是各项技术指标和外观效果均大大逊于前三种方法,耐久性也较差。
2.1.6门窗工程
机房的门一般要求与墙协调。在铝塑板玻璃隔墙上的门采用不锈钢无框玻璃自由门。疏散出口,钢瓶间采用防火门。
防火门一般有两种。一种为不锈钢材质;另一种为钢材漆面。建议上海汤臣防火门,工艺精确,质地优良。
在数据中心机房入口处采用玻璃自由门。
2.2电气部分
2.2.1设计依据,执行的设计规范
《电子计算机机房设计规范》(GB50174-93);
《计算站场地技术要求》(GB2887-89);
《供配电系统设计规范》(GB50052-95);
《低压配电设计规范》(GB50054-95);
《高层民用建筑设计防火规范》(GB50045-95);
《电气装置安装工程接地装置施工及验收规范》(GB50169-92);
数据中心机房提供的平面图及技术要求。
2.2.2 数据中心机房配电设计主要考虑
1. 机房进线电源采用三相五线制;
2. 机房内用电设备供电电源均为三相五线制及单相三线制;
3. 机房用电设备、配电线路装设过流过载两段保护,同时配电系统各级之间有选择性地配合,配电以放射式向用电设备供电;
4. 机房配电系统所用线缆均为阻燃聚氯乙烯绝缘导线及阻燃交联电力电缆,敷设镀锌铁线槽SR及镀锌钢管SC及金属软管CP;
5. 机房配电设备与消防系统联动;
2.2.3机房动力配电系统
机房辅助设备动力配电系统
机房辅助动力设备包括机房专用精密空调系统,机房新风系统及排风系统等。由于机房辅助动力设备直接关系到计算机设备、网络设备,通讯设备以及机房其他用电设备和工作人员正常工作和人身安全,所以要求配电系统安全可靠,因此该配电系统按照一级负荷考虑进行设计。
电源进线采用电缆或封闭母线(电源取自建设方变配电室母线),双路电源切换柜(AA1)与配电柜(AP1)并排安装于配电室,采取集中控制,便于管理机房空调设备。
机房计算机设备动力配电系统
机房计算机设备包括计算机主机、服务器、网络设备、通讯设备等,由于这些设备进行数据的实时处理与实时传递,关系重大,所以对电源的质量与可靠性的要求最高。设计中采用电源由市电供电加备用供电这种运行方式,以保障电源可靠性的要求;系统中同时考虑采用UPS不间断电源,最大限度满足机房计算机设备对供电电源质量的要求。市电供电与备用供电电源引自两个不同的电源点,在机房配电室进行切换,再经过UPS不间断电源对计算机设备供电。
电源进线采用电缆或封闭母线,双路切换柜、馈线柜并排安装于配电室。配电系统采用集中控制,以便于管理设备计算机用电。
2.2.4机房照明配电系统
照度选择:
主机房按《电子计算机机房设计规范》(GB50174-93)要求,照度为400Lx;
电源室及其它辅助功能间照度不小于300Lx;
机房疏散指示灯、安全出口标志灯照度大于1Lx;
应急备用照明照度不小于30Lx.;
2. 灯具选择:
灯具选用松业三管格珊灯组并带电容补偿:
3*40W(1200*600) 3*20W(600*600)
灯具正常照明电源由市电供给,由照明配电箱中的断路器、房间区域安装于墙面上的跷板开关控制。应急备用照明灯具为适当位置的荧光灯灯带中间一管,应急照明电源由双路电源供给。正常情况下荧光灯由市电供电,市电停电时,市电电源切换到备用电源,由备用电源供电,燃亮灯具。
3. 照明系统
2.2.5接地系统
机房设有四种接地形式,即:计算机专用直流逻辑地、配电系统交流工作地、安全保护地、防雷保护地。本次设计考虑为直流逻辑地设一组新的接地极,接地电阻小于1Ω;机房配电系统的交流工作地、安全保护地采用建筑物本体综合接地(其电阻小于4Ω),防雷接地由建筑物本体防雷设计考虑,机房区不再单独设计防雷接地。直流逻辑地极与建筑物接地极的距离应大于20米。
直流工作地网在机房内的布局是:
用3*20mm2的截面铜排敷设在活动地板下,依据计算机设备布局,纵横组成网格状,配有专用接地端子,用编织软铜线以最短的长度与计算机设备相连。计算机直流地需用接地干线引下至接地端子箱。
容易产生静电的活动地板、饰面金属塑板墙、不锈钢玻璃隔墙均采用导线布成泄漏网,并用干线引至动力配电柜中交流接地端子。活动地板静电泄漏干线采用ZRBV-16mm2导线,静电泄漏支线采用ZRBV-4mm2导线,支线导体与地板支腿螺栓紧密连接,支线作成网格状,间隔1.8米*1.8米;不锈钢玻璃隔墙的金属框架同样用静电泄漏支线连接,并且每一连续金属框架的静电泄漏支线连接点不少于两处。
为防止感应雷、侧击雷沿电源线进入机房损坏机房内的重要设备,在电源配电柜电源进线处安装浪涌防雷器。或者在计算机设备电源处使用带有防雷功能的插座板(如突破)。
2.2.6机房配电与机房消防报警、灭火系统设计简述
当火灾发生时,感烟探测器报警后,火灾控制器发出火警预警声、光报警信号。但此时不启动灭火程序。当同一防护区的感温探测器与感烟探测器同时报警时,控制器发出声光报警信号。在手动或自动启动灭火程序喷气前,总控制台发出指令,通知人员撤离,并发出联动控制信号,切断机房配电柜供电电源,即切断非消防电源供电的用电设备。如:空调机、新风机、照明、计算机等设备供电电源。上述设备供电与消防系统的联动过程,是采用电源配电柜主断路器的分励脱扣作远距离分端。配电柜主开关均装有分励脱扣器和辅助接点,另外紧急跳闸按钮在必要时可手动切断进线电源。
2.2.7机房用电设备用电容量估算
1. 机房辅助设备配电负荷PS1=?KW
2. 机房计算机设备用电负荷PS1=?KW
2.2.8设备选型
配电柜施耐德开关
配电箱梅兰日兰开关
灯具松业高效荧光灯
单相插座奇胜
计算机插座突破
跷板开关奇胜
2.3空调新风部分
2.3.1空调系统说明
机房环境特点:
机房中的环境设备在运行中散热量大而且集中,散湿量极小。即机房设备散热量的95%是显热,热量大,湿量小,热湿比极大。在这种情况下,空气处理可近似作为一个等湿降温过程。在这种情况下的焓差小,要消除余热必然是大风量。
此外,因为计算机设备、网络设备24小时不间断运行,所以需要空调系统一年四季不间断地运行。
同时,根据机房的围护结构特点(主要是墙体、顶面、地面,包括:楼层、朝向、外墙、内墙及墙体材料,及门窗型式、单双层结构及缝隙、散热)、人员的发热量,照明灯具的发热量,新风负荷等各种因素,计算出计算机房所需的制冷量,因此选定空调的容量。
数据中心机房空气环境设计参数:
夏季温度23±2℃冬季温度20±2℃
夏季湿度55±10%冬季湿度55±10%
洁净度粒度≥0.5μm个数≤18000粒/分米3
湿度变化率≤5℃/时
机房的环境是靠空调机来实现的。但是,保证机房的洁净度则要求做到以下几点:
第一,机房要密封墙体围护结构清洁。
第二,机房要保持正压,防止脏空气侵蚀。新风做到两级净化,即初效、亚高效 过滤器,从而使输入机房的空气质量大大提高。
第三,空调机设中效过滤器,并定期更换,从而保证机房循环中不断对空气净化。
该方案设计可以保证,空气洁净度达到国标要求。
空调选型:
为确保机房内计算机系统的安全可靠、正常运行,在机房建设中为机房提供符合要求的场地环境,我们推荐采用德国进口的STULZ恒温恒湿的机房专用空调机。
德国STULZ公司是具有几十年历史的专业生产精密空调的公司。STULZ模块化概念为用户在各个领域中的空调系统应用提供了高度的灵活性。STULZ将安全性和可靠性定为精密空调系统的最高标准。COMPTROL5000控制器的使用,使用户方便的得到所有参数。准确、清晰、简洁易懂。有多种语言显示。这不但节省能耗、时间和投资,而且使你高枕无忧。
机房专用空调采用下送风、上回风的送风方式。我们为您选择的机房专用空调是模块化设计的,可根据需要增加或减少模块;也可根据机房布局及几何图形的不同任意组合或拆分模块,且模块与模块之间可联动或集中或分开控制等。我们为向您推荐的是STULZ MRD662A模块机组,其单个模块为MRD331A技术指标如下:
技术参数:
型号MRD-331A
制冷量31.1KW/台
送风量7000~9000米3/时
机房余压70Pa
压缩机类型全封闭涡旋式
压缩机功率7.4KW
加湿方式电极式蒸气加湿,8~13kg/h
除湿方式节能式快速除湿
噪音
显示大屏幕中文及图形显示
机组尺寸宽1580*厚810*高1950mm
机组重量410kg
主要功能及特点:
独特的模块化结构,即每个模块都具有安全独立的制冷系统,每个机组可由1~5个这样的模块组成。其设计思想要求模块(各独立系统)之间互相关联性最小,使其安全可靠性、灵活性及经济性为最高。
多模块机组实现备份保护,可靠性最高。多个独立系统构成机组,单一系统故障检测不影响其他模块运行。
模块可备份状态,自动完成定期切换、故障切换和热负荷峰值启动。
故障备份:
气流故障
压缩机高压故障
压缩机低压故障
加热器故障
加湿器故障
此时,故障模块将关机,并自动转由备份模块工作。
热负荷峰值启动:在室温到达控制极限之前的1.5K或3%相对湿度时,备份模块启动,滞回值为1.0K及3%相对湿度。
定期切换:在一套设备中,备份模块切换被设定为一星期一次,以保证各模块机组部件工作时间的均匀性,以延长使用寿命。
首家采用国际名牌Copeland涡旋式压缩机(活塞式压缩机已属淘汰产品),具有效率更高,噪音更低,寿命更长的特点。
不锈钢制电加热器,并有能耗极低的超声波加湿器可选。
控制器采用中文显示,人机对话操作,可配双控制器(备份)。背景光,大屏幕,易操作,图形及表格显示,24小时湿度曲线记录,预报警提示,80条报警。具有打印机接口和通讯接口。可接STULZ近程和远程监控,并可接BMS通用监控系统。
多采用铝质、不锈钢材料。板材均经过抛光、喷塑处理,抗腐蚀能力强,机组可保证10多年不生锈。
更换无公害制冷剂来代替R22,如:R407C后,STULZ空调机制冷能力不下降,保持现有水平。
机组扩容简便,简单增加模块,即可增加制冷量。
根据场地情况和热负荷,模块可分布分离布置安装。
所有维护均从正面进行,其他面可不需留空间。
模块可分离搬运、运输,通过狭窄通道极其方便。
根据上海吉通数据中心机房的情况,我们的建议是,将机房配以2台MRD1324A(MRD1324A=MRD331A*4),3台MRD993A(MRD993A=MRD331A*3)机房专用空调机,可满足机房内温湿度的要求,也可实现完全的冗余热备。
空调机的上下水问题
设计中机房上下水管不宜经过机房。
上海吉通数据中心机房空调机的上下水管应尽量靠近机房的四周,把上下水管送到空调机室。上下水管另一端送至同层的卫生间内。空调机四周用砖砌成防水墙,并加地漏。
为防止机房内漏水,现代机房常常设计安装漏水自动检测报警系统。安装系统后,一旦机房内有漏水的出现,立即自动发出报警信号,值班人员立即采取措施,可避免机房受到不应有的损失。
机房采用精密空调,为风冷式空调机。空调机分成室内机和室外机两部分。根据机房所在大楼的环境情况及空调机本身特性考虑,机房专用空调的室外机部分放在楼屋顶上。采用钢支架固定,在支架上安装室外机。
2.3.2新风系统说明
机房内的新风系统是必不可少的。清新的新风提高机房的洁净度,使机房保证正压,并提供新鲜空气。新风应满足两个指标:其一,是每人每小时40立方米;其二,是应占空调系统总风量的5~10%.
机房四周密封,新风极为重要。应选用新风净化机2台,其单台风量为2500立方米/时。新风采自室外或取自大楼新风室。
根据国家有关规范和标准规定,计算机房内应设排风系统,用以排除可能出现的烟雾及灭火后出现的气体。
新风系统内设防烟防火阀。排风系统内设排风阀。阀门既可手动又需和消防报警系统联动。根据消防报警指示要求关闭或开启阀门。
2.4监控系统
2.4.1需求及我方建议
计算机机房现已成为国民经济发展中的信息枢纽,机房数目和机房设备愈来愈多,为满足工作需要,提高机房环境管理的安全性,建议采用先进的智能化、数码化技术建立管理平台,对保安报警系统、门禁系统、闭路电视监控系统、机房设备等进行管理。
为此根据这一发展趋势,建议采用美国ALC智能自动控制系统和综合数码影像处理系统。
我们力求系统设计中的先进型、可靠性、实用性和扩展性。同时体现如下原则:
严格系统设计方案
设备选型科学周密
选择满足系统功能需要的主机
功能强、操作方便
在满足各项功能的前提条件下,尽可能降低费用
2.4.2设计依据
《民用闭路电视监控系统工程技术规范》GB50198-94;
《民用建筑电气设计规范》JG5176-92
《安全防范工程设计程序要求》GA/T75-94
《工业企业通信接地设计规范》
《智能建筑设计技术》GBJ232-82等
2.4.3方案概述
“ALC”先进区域式智能设计,将确保系统在个别控制器发生故障期间,有关问题不会影响其它设备运作。藉此提高系统执行效率。
在设计中考滤下列重要事项,使系统在日后正式运作时能更为顺利。
系统必须拥有友好的人机界面
系统日后扩充能力
系统与其它设备之兼容性
在网络繁忙时段的稳定性运作
有关网络/系统的交易记录必须作稳定性储存,而保证不能遗失
美国“ALC”智能自动系统将完全满足上述要求,“ALC”的先进网络架构,不仅能提供极稳定的系统运作,即使在不同环境下网络繁忙时段,例如多种警报同时发生期间或网络下载参数时,系统执行效率都不会受到影响。
在操作平台上,“ALC”将系统一体化概念完全实现;其独特整合设计,把各类不同系统功能在同一操作平台 - 电脑终端上完全执行。不仅简化系统应用程序,同时亦能使设备安裝成本大大降低。而当有需要时,可利用“ALC”网络上灵活设计,即可在传输主干线上根据实际需求加设相对分控中心。
有关系统应用方面,“ALC”整个系统操作均在为微软视窗环境下进行,並以生动图符作为操作媒介,令用戶能轻易掌握操作技巧;即使在系统调试完成后,用戶亦能根据不同环境要求而轻易自行修改系统运作程序。
通过各类不同“ALC”联网讯口,“ALC”智能自动系统能与下列各类机电设备作互动式联网。
自动消防警报系统
在收到某区消防警报时,系统能根据预设程序通过门禁控制器将相关门户自动开启。
楼宇自控系统
当大楼自控系统所管辖的机电设备(如空调、UPS、发电机、配电柜等)发生故障,有关信息将能以动态图形式第一时间显示在“ALC”管理平台上,此外用户亦可根据不同设备的重要性而编定警报产生先后等级,使之进行综合的有机管理。
2.4.4监控中心
本系统在总控室设置在网络室。值班人员是按操作密码所赋予的权限进行相应管理控制工作。发生报警事件或其它事件,操作系统会自动以形象的方式显示有关信息和发生声响提示,值班人员从计算机上可以马上了解到信号的发生地、信号类别和发生的原因,从而相应做出处理。
系统能保证做到没有漏报现象,操作员在中心控制室可以综观全局,了解报警事故发生的时间、地点、原因和采取的措施及实施的效果,同时避免了依赖人手管理所无法预计的事故发生,保证了整个管理水平大大提高。
2.4.5门禁系统
关键词:节能减排;数据中心;技术
企业在进行发展的过程中,中心机房的建设是非常重要的。机房的发展速度现在是非常快的,这样就使得机房中的设备在不断的增加,设备的增多使得机房的原有冷却系统在使用的时候已经无法满足要求,这样就会使得数据中心的设备在运行的时候非常容易出现局部过热的情况,而且出现的问题将是越来越明显的。在数据中心中,设备的耗电站整个中心的百分之五十,机房的制冷在电力消耗方面是占百分之四十的,其他的电源耗电占百分之十。机房的制冷设备在整个中心机房中比重是非常大的,这样就使得机房的节能减排工作是非常必要的。我国经济近年来得到了很大的发展,经济在以前的发展中是以牺牲环境作为代价的,这样就使得我国的环境遭到了严重的破坏,现在人们在经济发展的过程中对环境保护是非常重视的,这样就使得人们对能源的消耗问题也是非常重视的。中心机房在运行中也要体现环保的要求,在对机房进行管理的时候一定要提倡技能减排。对现有的数据中心进行更好的设计,在设计的时候采用节能措施,能够将数据中心的耗能进行降低,使电能得到节约,同时在进行制冷的时候能够更加高效,同时保证系统的稳定运行。
1 数据中心节能减排技术
在进行机房节能减排设计的时候,主要要对机房的耗电量进行控制,在对耗电量进行控制时,只能通过对制冷设备进行设计达到目的。在对耗电情况进行调整的时,要进行全方面的监控管理,不仅是为了实现节能减排的目的,同时也是为了更好的促进数据中心机房的发展。在进行数据中心节能减排设计的时候可以从以下几方面来实现。
1.1 智能的动态精确制冷技术
职能冷却系统是以机柜级别散热装置作为基础的。在运行过程中可以根据各个机柜排风温度的变化对每个风口的风量进行调节,这样可以使机柜满足服务器不同的散热要求,同时对局部出现高温的情况也能更好的进行控制。为了更好的使冷却系统得到效果,要对制冷技术进行精确的研究,同时要能够更加数据库的温度变化来对制冷设备的送风进行控制,同时还要保证制冷设备的回风稳定进行设定,这样才能更好的实现制冷设备的效果,提高使用的效率,对电能进行节约,同时达到节能减排的目的。
1.2 自动温控技术
自动温度控制技术要建立在独立机柜的稳定传感器上,职能温度控制能够及时采集到机柜的实时稳定变化。制冷设备在使用的时候可以通过对出风量进行调节,对温度过高的机柜进行冷却处理。在达到冷却的目的以后,系统可以自动恢复到原有的控制上。对机柜的稳定进行实时的掌握才能保证制冷设备达到使用的效果,这样也可以达到节能的效果。
2 精确送风技术
数据中心在进行制冷的时候,通常使用的送风方式是下送风,这样可以更好的对设备进行温度的调节。为了更好的对每个机柜的温度进行控制,可以安装智能通风地板,对送风量进行控制,解决设备运行过程中出现的温度过高的情况。在精确送风的过程中要实现精确送风技术要由两个组成部分共同作用完成。
2.1 智能通风地板
现在的很多设备在通风上选择的散热方式都是前面进冷风,后面排热风的方式,这样前后的通风方式更加方便按照职能的通风地板。通过对智能的通风地板进行控制可以更好的实现风量的调整,同时也能更好的进行散热处理。对机房的设备进行发热情况的了解,可以更好的制度不同规格的智能通风地板,在通风量上也能更好的进行控制。
2.2 机柜控制单元
机柜的级别是不同的,在服务器的机柜上进行控制单元的安装要通过后部的多点温度传感器,对机柜后部的排风温度数据进行收集,这样可以更好的掌握机柜的温度变化。通过对前端的智能通风地板进行控制,可以更好的对排风的温度变化进行掌握。
2.3 数据中心动环系统的监、管、控技术
全视角机房智能基础设施监、管、控,采用多进程、多线程等先进的软件技术,能够以极快的速度扫描各个端口所连接的设备,实时读取设备的运行参数,对设备的异常参数及时产生报警。通过采取动环设备的监、管、控技术,不仅可以实时读取设备运行参数,对发生的故障等异常进行报警,而且最重要的是通过实时、历史数据的分析可以对动环的设置参数、环境参数等进行动态的调整,是冷却、制冷等更好的符合数据中心基础设施的实际要求,能有效节约电能,达到节能减排的目的。系统架构采用集散设计,基于机柜级别的机柜控制器,对机柜送风状态及温度进行监控。可以实现对单位机柜温度、制冷量的规划管理,并对机柜的环境进行实时检测,避免不必要的供电和制冷量的产生。比如用户可以通过该软件实时了解单位机柜温度大小的变化,依据合理的自动控制原理,来调节机柜前出风量的大小。从而达到对机房环境的实时监控,精确了解机房的温度、湿度、风压等参数,了解空调的运行状态。
3 数据中心动环管理系统
目前一般数据中心动环管理系统功能主要包括现场数据采集功能、历史数据的计算和图表展示、实时数据展示、实时的各传感器收集的温度数据展示、实时设备运行状况展示、实时温度分布图形展示等,其具体内容介绍如下。
3.1 实时图像展现功能
可以对数据中心现场温度、机柜温度监控等进行实时的机房温度监控。并对出现的各种异常情况进行警告报警。
3.2 实时数据展现
动环监控管理系统主要对监控的机房控制设备(机柜送风控制、空调送风控制展示),在数据展示区进行二维机房模型图,数据罗列的展示,可对如下数据进行系统、直观的展示。机柜出风温度,阀门开启度;静压箱内温/ 湿度,静压箱压力;空调机回风温度湿度,空调压缩机运行状态。
3.3 监控数据管理
以固定间隔时间,从BS 控制器端获取数据文件,并解析、读取数据、将数据保存至监控端数据库中。其采集数据项包括机柜后部出风温度与机柜前智能通风地板电动阀门开启度。其中对送风系统数据与精密数据进行相应的数据管理。其中送风系统数据包括静压箱送风温度、湿度与静压箱压力。精密数据包括精密空调运行状态与精密空调回风温湿度设置。
3.4 数据查询统计
动环监控系统可以依据选取设备、时间段,以二维表格形式罗列该设备在所选时间内的参数表格,并可选中某一项数据,生成历史曲线图。通过对历史数据的统计与分析,可以依据其进行配置参数等的动态调整。
3.5 集中远程管理
控制与管理平台可以分开部署,管理平台接入现有的监控室。实现无人职守机房。多个机房可以级联,通过远程监控集中管理。
在企业日常运营中,数据中心是耗能大户,企业的节能减排工作很大程度上依赖于数据中心的节能减排。机房节能技术的实践和推广将为加快资源节约型、环境友好型社会建设作出贡献。
【关键词】数据中心;服务器虚拟化;智能DNS
1 高校数据中心建设现状
高校数据中心是数字化校园建设的核心内容,现有的高校数据中心通常会使用单服务器单应用的运行模式,随着应用服务的增多、负荷加重,传统单服务器单应用的模式的逐渐暴露出应用资源管理复杂、服务器资源利用率低和应用服务故障恢复时间长、占用机房资源多等问题,已不能满足数据中心对应用系统、存储空间、机房环境等多方面的发展要求。
当前高校数据中心建设主要面临的问题主要有以下几点[1]:
1.1 服务器硬件资源利用率低,机房资源占用多
一般单台服务器只运行单项应用,但多数服务器的硬件资源利用率较低,服务器所能提供的硬件资源(主要指CPU、内存、硬盘的实际利用率)远大于运行应用的实际需要,造成大量的硬件资源浪费。数据中心机房在建设时通常会根据实际场地需求对供电、空间密度、温度、湿度等综合因素进行综合规划,而过多的服务器硬件将增加用电负荷、网络接口使用数量、机房空间。在数量达到规划上限后则无法继续增加。
1.2 服务器资源管理复杂
过多的服务器数量为管理员带来巨大的工作量,管理员将面对不同类型的服务器和应用,造成工作内容的琐碎。同时在不同硬件平台的服务器之间进行应用的迁移时,会因操作系统、硬件驱动、系统设置的差异为管理员带来更多不必要的工作量。
1.3 故障恢复时间较长,服务器数据备份难度大
服务器硬件、软件出现故障会造成的应用服务中断(采用服务器冗余除外),服务恢复正常所需的时间也因故障的大小而不相同,一般软件故障通常短时间内能够解决,而硬件故障则需要联系厂家短时间无法解决,如果服务器上运行的是重要的应用服务则会造成严重影响。数据备份是管理员日常维护工作的重点,过多的服务器数量增加了管理员在数据备份工作的难度中。
随着虚拟化技术的不断发展和日益完善,服务器虚拟化技术在服务器硬件资源整合、服务器硬件资源利用、应用恢复速度快、简化资源管理方式、节约采购成本、降低机房能耗、降低机房空间占用率等方面有诸多优点。如何使用服务器虚拟化技术对结合高校数据中心现有资源将服务器资源重新整合,应用服务重新规划部署,是高校数据中心改造建设的重要内容。
2 服务器虚拟化技术简介
服务器虚拟化( Server Virtualization) 是将服务器的CPU 、内存、磁盘、I / O 和电源等物理硬件抽象成逻辑资源, 并能在这些虚拟的硬件资源上安装操作系统和应用程序。通过这种技术可以在一台物理服务器同时运行Windows、Linux 和Unix 等多种、多个操作系统。
服务器虚拟化的发展有两个方向,一个是一变多,另一个是多变一。一变多是指,将一台物理服务器变成几台甚至上百台自治的虚拟服务器;多变一是指,将离散的多台物理服务器连结在一起形成分布式云计算,提供并行处理和高性能计算。服务器虚拟化可以将集群中的物理资源,如处理器、内存等,形成资源池,可以动态管理,从而提高资源利用效率,保证业务更具有适应力[2]。
服务器虚拟化技术的优势主要体现在通过服务器虚拟化,可以提高服务器的利用效率,整合物理服务器。
2.1 降低服务器数量,合理利用资源
对资源进行科学整合,通过采用服务器虚拟化技术在一台物理服务器上同时运行多个虚拟机,根据现有应用服务类型对已有服务器资源科学规划、整合,有效降低服务器使用数量,从而降低数据中心机房的能耗和空间密度,提高资源利用率。服务器虚拟化技术能够最大限度实现资源共享,并能够适应应用服务不断变化的资源需求。
2.2 简化资源管理模式,提高系统兼容性
服务器虚拟化技术简化了服务器的安装和管理,在宿主机中建立虚拟隔离层,每一个虚拟主机分别独立存在,在应用服务维护或迁移时无需考虑服务器硬件的兼容性,降低了服务器管理的复杂度,解决了因服务器硬件兼容性导致的操作系统安装时间长、资源管理繁琐、操作系统迁移时间长等问题。
2.3 服务故障恢复和数据备份更加快捷
虚拟服务器实际上就是存放在主机或者是存储设备上的磁盘文件,加上虚拟化提供的动态迁移和虚拟机复制技术,为数据快速恢复和灾备提供了便捷的解决方案,提高了服务应用的可靠性以及使用的便捷性。
通过服务器虚拟化技术对服务器硬件、软件应用平台进行集中和整合,简化服务的管理工作,提高数据中心的资源利用效率,降低运维成本,并能够为数据中心的扩展提供更好的支持。因此,在高校数据中心改造过程中使用服务器虚拟化技术是必然趋势。
3 服务器虚拟化实施方案
本方案以江苏经贸职业技术学院数据中心改造项目为例如图1所示,改造内容主要包括:服务器资源整合,校园一卡通、办公系统、WEB服务、教务系统、邮件服务、DNS服务、各类实训教学应用的统一规划整合,根据不同的操作系统和应用服务进行物理服务器分类,并根据负载、并发数等各项指标来规划相应的虚拟服务器,对CPU、内存、硬盘、网络等资源进行合理分配。同时应考虑数据快速迁移和灾备的需要,为重要的服务建立冗余的虚拟服务器,从而实现应用服务的不间断运行以及应用系统的便捷管理。
图1 江苏经贸学院数据中心改造项目
在高性能服务器上安装VMware 公司的VMware vSphere 服务器虚拟化软件实现服务器虚拟化,VMware vSphere主要基于Linux内核的带有虚拟化层的操作系统。同时部署相同的高性能服务器实现集群的双机热备。VCenter Server 管理服务器作为虚拟化的集中管理平台部署在安装另外一台普通物理服务器上,通过它创建、管理所有的虚拟主机。外部用户可以使用VM Client 客户端或Web Client 方式对所拥有管理权限的主机进行管理。物理服务器上不存储系统以外的应用数据,通过HBA 卡或NAS等方式与网络存储相连,所有应用数据存放在存储服务器上。数据中心存储服务器通过光纤连接其他楼宇的存储服务器实现灾难备份。通过上述步骤,基本实现了虚拟化服务器平台的搭建。接下来可以利用VMware 技术按照系统规划对应用系统进行实时迁移。
4 总结
随着服务器虚拟化技术应用的成熟,该技术成为高校数据中心建设或改造的重点建设内容。使用服务器虚拟化技术有效减少了服务器的数量,提高了服务器资源的利用率,简化资源管理模式,服务故障恢复和数据备份更加快捷。为我院数字化校园应用系统提供了连续、高效、绿色的支撑平台。
【参考文献】
对电信运营商来说,它们也是数据中心市场的中流砥柱。中国三大电信运营商分别是中国电信、中国移动和中国联通,目前这三大运营商占中国总体数据中心市场的份额达到了60%左右。当前,它们都在积极打造绿色的数据中心,相关工作已经全面展开。
中国移动:签署第一份绿色协议
中国移动通信是国内惟一专注移动通信发展的通信运营公司,作为全球最大的电信运营商,中国移动签署了国内通信行业第一份《节能自愿协议》,并且全面推进“绿色行动计划”。
中国移动在22个省建设有IDC机房,但IDC面积都在1000平米以下,大部分不足500平米。中国移动计划建设部节能减排处项目经理杨志军介绍,“部分机房能耗水平相对较高,PUE值大大高于欧美发达国家数据中心平均水平。”因此,在推进绿色数据中心的建设中,中国移动集团公司对老旧机房改造面临着多重挑战。为了降低机房能耗水平,中国移动在2011~2013年持续改造了多批数据机房及IDC机房。改造内容包括隔离冷热通道,关闭多余通道,实施精确送风,提高机房装机量等等,预计年总节电量为1822万度,平均PUE值下降28%。
此外,中国移动也应用多种新技术建设数据中心。据中国移动计划建设部节能减排处副主任李海滨介绍说,新建数据中心为了降低能耗,主要采用仓储式机房的思路进行建设,就是通过整体部署,实现机房和IT设备整体节能。此外,中国移动采用定制化的服务器能、自然冷源、高压直流等节能技术,统一尺寸统一功率并且是标准建设。
在云数据平台的建设上,中国移动“大云”1.0。大云的后续版本处于研发当中,未来将有效涉及云计算资源池实时交易和云计算能力开放能力等领域。2012年5月,中国移动呼和浩特数据中心开工。数据中心设计采用的是模块扩展的思路及业界先进的绿色环保技术,利用自然冷源,融合先进的制冷技术,大幅降低能源的消耗,通过低耗能、低成本、高效率的运营模式,全力打造“绿色基地”。
此外,中国移动的各地分公司也都积极展开数据中心节能的探索。如中国移动浙江公司开展合同能源管理(EPC)的试点工作,对照明改造节能、基站新风系统节能、办公楼综合用电环境改造和管理、IDC机房综合节能方案实施、机房新风系统等领域的EPC开展进行了实施。
中国联通:全面的绿色IDC实践
联通拥有覆盖全国、通达世界的现代通信网络,目前正在加快移动通信网络建设步伐。面对IDC不断攀升的电费成本和建设成本,中国联通负责人说,将至少推出五种方式来实践绿色数据中心的计划。
第一种方案是在北方选取城市,利用冬季室外空气进行自然制冷;其次是对服务器进行集约化处理,提高数据中心能效比;再次是对机架电源容量进行改造,提高数据中心空间利用率。中国联通系统集成有限公司IDC运营中心总经理康楠说,“我们将选取有代表性的2~3个机房进行新一代绿色数据中心试点,其中的天津华苑国际数据港已经率先采用新技术,打造高端绿色IDC;而北京亦庄二期工程将适用联通提出的新IDC技术规范。”
另外,中国联通已经推出了绿色IDC技术规范v1.0。该规范对数据中心机房建筑节能、机房场地规划布局、设备选型、IT系统优化、虚拟化技术、配电优化、无功补偿及谐波治理、自然冷源利剧、机房制冷优化、气流组织及照明等节能相关内容进行了规定。
此外联通各省分公司在集团统一组织下,根据机房实际条件,采取各种技术手段对IDC机房的节能改造进行了创造性的探索,并取得了很好的节能成效。
中国联通系统集成公司IDC运营中心总经理康楠介绍说,中国联通各地方公司开展了较多IDC绿色节能技术试点。面对传统机房,联通正在进行绿色改造。康楠说,目前联通进行的改造方案针对不同的机房特征而有所不同,主要有场地优化,包括场地布置调整、设备机柜优化、布线路由优化等;智能冷却,包括温度控制优化、风量控制优化、压力控制优化等;还有电源改造,包括IT设备供电改造、电源路由改造、UPS系统改造等。
另外,在关键技术环节上,联通主要应用包括虚拟化、云技术促进数据中心从独立的设备向共享设备转变,实现资源“池化”管理,降低运行维护复杂度和成本。值得关注的是,联通也在通过客户体验和感知提升联通绿色IDC品牌营销,比如在品牌营销与市场激励方面也将绿色数据中心的内容加进来。
中国电信:从“芯”出发
中国电信是国内惟一拥有固定通信、移动通信、卫星通信网络的电信运营商,在有线宽带、数据中心建设等方面都处于领先地位。对中国电信来说,数据中心一方面已经成为其支撑系统架构的重要组成部分,另一方面也是企业的重要盈利手段,因此,建设高效节能的数据中心成为其决胜未来的关键。中国电信正以实施“绿色”科技、构建“绿色”经营的理念出发,从芯片、服务器、存储、空调、机房配套等五部分着手,构建高效节能的数据中心。
芯片是构建数据中心的基础和核心,在提高数据中心运算速率和减少散热方面作用重大。为了从“芯”开始,中国电信北京公司和英特尔签订了绿色节能数据中心的合作备忘录,双方将通过成立联合实验室,共同促进数据中心节能降耗工作。
根据2019年《区<政府工作报告>确定的主要目标任务责任分解方案》(蔡政办[2019]1号)和《关于印发2019年度全区全面建成小康社会、全面深化改革、全面依法治国、全面从严治党等四个专项考评办法的通知》(蔡考评组[2019]3号)的相关要求,为突出重点、高效推进各项目标任务顺利完成,现制定如下实施方案。
一、工作目标
全面贯彻落实国家和湖北省关于实施大数据战略、深入推进“互联网+政务服务”等重大决策部署,严格执行《湖北省人民政府关于推进数字政府建设的指导意见》(鄂政发[2019]4号)。以“互联网+政务服务”为抓手,坚持问题导向、强化统筹规划、制定统一标准、建立安全措施,以推动政府数字化转型,建设人民满意的服务型政府为目标,加强大数据中心体制机制建设、制定相关政策文件,全面推动我区数字政府建设。
二、主要任务
(一)启动蔡甸数字政府顶层规划。2019年,我区国家智慧城市创建试点工作顺利完成,并编制了《蔡甸区国家智慧城市试点创建工作结项评价报告》。《结项评价报告》对原国家智慧城市目标完成情况、主要工作成效、存在的问题与不足进行了科学分析和论证,对下步“新型智慧城市”和“数字政府”建设工作具有重要的指导意义。“数字政府”是智慧城市的核心组成部分,必须统筹规划、统一实施。要充分利用“数字政府”这一切入点,将智慧城市和“数字政府”的政务信息化建设工作进行统筹整合,启动蔡甸区“数字政府”的总体规划与设计,同时建立数据整合、共享、开发、应用的部门责任制和督查督办机制,加速推进我区“智慧城市”和“数字政府”建设。
(二)加强电子政务项目统筹管理。为保证全区电子政务和信息化均衡有序发展,防止重复建设、大数据中心参与制定电子政务项目预审管理办法,从而统筹规划全区财政投资的电子政务项目,对项目技术方案进行备案评审;加强电子政务项目的验收评估,制定电子政务项目评价指标体系,建立项目技术咨询评审机构库,为全区电子政务项目提供专业技术咨询,指导项目建设和实施,保障项目安全运行。
(三)为“民呼我应”工作提供技术保障。为进一步推进党建引领社会治理创新,打造服务型政府,在全市新城区率先推进“民有所呼、我必有应”工作。大数据中心根据区委区政府统一部署,积极发挥技术保障职能,通过整合“网上群众工作部”、“数字城管”、“微邻里”、“城市留言板”,运用互联网、大数据、云平台等信息化手段,统筹建设三级“民呼我应”信息化服务平台,为“民呼我应”工作提供技术保障。
(四)建设集约的基础支撑环境。协调推进全区电子政务网络建设,完成政务网络提速及设备升级工作;加强区大数据中心机房及电子政务网络的管理和维护,确保机房及网络设备运行良好;加强区政府门户网站、区协同办公系统技术维护,确保区政府门户网站、区协同办公系统正常运行;强化大数据业务和技术培训,积极开展电子政务工作的对外交流与合作。
三、保障机制
(一)加强组织保障
按照省市要求,拟成立蔡甸区“数字政府”建设工作领导小组,领导小组组长由区政府主要负责人担任,明确相关区直部门为小组成员单位,加强整体协调、统筹规划, 制定政府数字化转型总体框架和配套工作机制。成立“数字政府”专家委员会,在规划设计、技术路线等方面提供咨询、指导和建议,审议数字政府整体设计方案。由区政务服务和大数据管理局牵头组建“数字政府”建设工作专班,区大数据中心积极配合,形成“一盘棋”工作格局。
(二)制定政策文件
由区政务服务和大数据管理局牵头负责制定全区信息化项目管理办法,区大数据中心积极配合,改变以部门为中心的分散建设模式,推进信息化项目从项目预审、备案、计划立项到全程监管的管理模式,使用“武汉市信息化建设项目管理系统”通用模块实现市区对接,制定蔡甸区“数字政府”建设考核评估办法,引入第三方评估机制,对建设推进情况进行质量管理和绩效评估。加强审计和督查,促进“数字政府”建设工作规范化。