收藏 分享(赏)

Facebook数据中心RDDC设计.doc

上传人:Marleyazariah 文档编号:21733706 上传时间:2024-04-15 格式:DOC 页数:32 大小:4.69MB
下载 相关 举报
Facebook数据中心RDDC设计.doc_第1页
第1页 / 共32页
Facebook数据中心RDDC设计.doc_第2页
第2页 / 共32页
Facebook数据中心RDDC设计.doc_第3页
第3页 / 共32页
Facebook数据中心RDDC设计.doc_第4页
第4页 / 共32页
Facebook数据中心RDDC设计.doc_第5页
第5页 / 共32页
亲,该文档总共32页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、Facebook数据中心RDDC设计(上)摘要:在今年年初OCP 2013峰会上,Facebook发布了最新的数据中心建设思路RDDC(rapid deployment data center),其模块化、标准化、预制化水平到达一个新的高度。本文将回顾RDDC的前世今生和Facebook IDC发展之路,并从技术上分析数据.在今年年初OCP 2013峰会上,Facebook发布了最新的数据中心建设思路RDDC(rapid deployment data center),其模块化、标准化、预制化水平到达一个新的高度。本文将回顾RDDC的前世今生和Facebook IDC发展之路,并从技术上分析数

2、据中心建筑、电气、暖通、微模块等,最后谈谈RDDC对国内的影响和启示。本文有不少笔者个人观点和猜想,加之资料和个人水平有限,未免有不少错误,希望读者多多指正(本文相关图片材料均来自网络视频等资料)。1 Facebook 数据中心发展之路在分析RDDC之前,我们不妨回顾一下Facebook数据中心发展之路。Facebook从早期租赁数据中心,到去俄勒冈建自己的数据中心,再到去欧洲瑞典Lulea建新数据中心,虽然中间时间并不长,但其标准化程度和成熟度都很高。这有赖于美国IDC的技术水平发展较高,以及Facebook可以借鉴各种互联网公司经验。总体来说,Facebook IDC演进经历了若干阶段:1

3、) 定制服务器、存储等ICT设备;2) 改变供配电架构,定制冷冻水末端空调ZY1 ,采用一路480V市电与一路48V电池柜的供电系统架构,发布OCP open rack V1.0ZY2 规格。3) 使用Penthouse设计。干燥新风通过蒸发散热,等焓加湿降温ZY3 ,可以选配DX盘管(Facebook只有一个数据中心有配DX盘管)。4) 和CA合作。CA提供DCIM软件,Facebook在CA DCIM基础上通过开放接口二次开发相关应用。5) 采用RDDC方法,发布OCP open rack V2.0。改为480V直接到服务器机柜分布式电源ZY4 ,输出12V,锂电池直挂12V母排架构。Fa

4、cebook的数据中心技术发展蓝图大致可以用以下关键事件概括:图1 Facebook 数据中心发展之路Facebook一开始定制服务器和存储等设备时候,就希望能优化供配电架构,当时发布的OCP open rack V1.0规范其实就是配合定制服务器电源做成的微模块。具体电源系统单线图如图2所示。图2 OCP open rack V1.0规范中的电源系统单线图当然,图2关于UPS的效率86%是非常不合理,实际上现在高频交流UPS的效率可高达96%。关于直流电和交流电在效率上比较,笔者推荐参考施耐德APC 第127号白皮书数据中心交流配电与直流配电的量化比较(此白皮书比较中立分析了交直流配电的系统

5、效率。但难以否认的是,Facebook通过整合服务器电源和前端直流UPS,使得效率从73%(修正值)提升到87%。即使换到国内380V电压应用环境,减少北美480V/208V降压变压器,Facebook的设计也能提高约7%。但是,笔者认为这种整合虽然能够提升效能减少成本,但至少目前而言,对于大部分企业客户,这种对ICT设备的供电架构改造并不现实。另外,有不少人会认为Facebook这种模式通过牺牲系统可靠性来获取效率提升,而可靠性通过软件、多个数据备份等保证,类似Google的方式。但根据Facebook做过相关电气系统可靠性分析,结论却让人感到惊讶,这种简单而高效的系统反而可靠性更高!图3与

6、图4是Facebook工程师分析配电系统可靠性的比较:图3 典型数据中心可靠性分析图4 Facebook数据中心可靠性分析笔者认为Facebook的分析相对较为简单,缺乏整体配电系统架构量化分析,比较科学严谨的方法要使用可用性计算软件,通过单线图和相关电源设计故障时间和维护时间等参数具体计算。但从系统简单即可靠的角度来看,Facebook的配电架构确实未必比传统金融行业Tier4级数据中心配电设计的可靠性低,特别是直流系统的电源运维更简单。所以,从某种意义上说,国内240V直流配电技术的流行,并不是为了效率上的一点提升,而更多是基于系统可靠性相对一致,采购成本和运维比传统交流UPS更优。同样的

7、道理,我们不妨看看为什么国外用同轴飞轮UPS的用户较多,其实同样因为系统简单。如思科Allen数据中心、雅虎数据中心都用了飞轮UPS,因为配电系统设计非常简单,使用机械系统降低电子控制难度和故障率,配合其无电池设计、非常紧凑的占地面积,还可以作为外置预制电力模块受到极大欢迎。由于国内用户、设计院等对飞轮UPS认识不足,同时飞轮UPS的初期采购价格较高,厂家选择面相对较少而导致应用案例非常少。笔者认为,若没有整合服务器电源,从系统简单性、效能来说,使用同轴飞轮UPS(飞轮+发电机)确实对于企业客户是一个不错选择,比交流双变换UPS系统要优。但Facebook的做法是采用后备式直流UPS,效能极大

8、提高同时,维护容易很多,个人也更喜欢使用分布式电源方式。Facebook定制的48V DC UPS,输出给6个OCP V1.0机架供电(左右两组3连柜),内置5组48V铅酸电池,输入为480V/3ph,如下图所示:图5 Facebook定制的48V DC UPS,输出给6个OCP V1.0机架供电OCP的机架内部配置48V/12V直流转换器,即机架的服务器电源采用整体设计;服务器集中式电源如下图所示:在Open Rack V1.0中,可以放置3个4.2kW功率模块,支持12kW机架功率密度。如果是8kW的话,放置2个功率模块即可,输出12V母排接到服务器输入侧。除了配电系统,针对俄勒冈的干燥环

9、境,Facebook使用penthouse阁楼设计其制冷系统,其典型的内部构造如下图:图7 Facebook 俄勒冈数据中心内部制冷建筑结构图整体使用无冷机设计,制冷先后经过过滤、混合舱、加湿蒸发散热、风机墙、排风阀等。总体来说,Facebook第一代数据中心更多集中在微模块的建设和末端电源技术改进,OCP open rack配合定制服务器整机架交付。更多信息可以参见下列视频链接:可以看出,在电气系统与配电架构上Facebook已经做了较多产品化和标准化,但是penthouse设计需要较多的工程化并且与建筑配合。由于机械系统(HVAC/Mechanical system)采用工程化设计需要配合

10、建筑施工,同时微模块外的电气系统也为工程实施,导致数据中心整体交付速度滞后于服务器和微模块交付速度。因此,Facebook针对这个问题,希望对微模块外的机电、IDC建筑通过产品化、标准化预制、预构件等方式改进,同时并行作业,从而达到业务部署速度、ICT设备部署速度、机电部署速度、建筑部署速度几乎同时匹配,做到快速交付(Rapid deployment)。这个就是RDDC快速部署数据中心的概念由来。2 RDDC的构成2.1 建筑布局、分区图8为Facebook的RDDC整体园区布局渲染图,布局设计看上去有点类似HP的Flexible DC灵活数据中心设计的概念,关于HP可参看下面链接视频:Fac

11、ebook并没有采用多层结构或俄勒冈式的两层结构,相反,其采用了大平面一层的设计方式放置所有设备,通过提高层高来满足布线、热通道回风等要求。图14 Facebook Lulea RDDC数据中心PEB设计在这里,笔者认为有必要介绍一下PEB(Pre engineered Building英文全称)和PFB(Prefabricated building)之间的差异,大家就会理解集装箱和这种方法的差异。PEB和PFB之间难以有一个非常明确的界定,两者看上去有点像成品和半成品的关系。PEB定义了部件,损失了现场交付时间,但更改设计灵活性比PFB高,同时运输成本更低。而PFB相比集成度高,提高了交付时

12、间,但设计相对固定,更改设计灵活性差,运输成本通常较高。PEB和PFB优劣性更多基于不同系统用户实际应用情况,难以有定论,如IT集装箱是PFB,而Facebook的微模块是PEB做法,就目前来看,谷歌抛弃了IT集装箱做法,笔者认为PEB+PFB混合做法更优。而Facebook的RDDC做法,在建筑上使用PEB,在机电模块上使用PFB,而在微模块上又使用PEB。对于IDC建筑使用PFB设计,英国Bladeroom数据中心堪称使用类集装箱Containerized DC的经典。该数据中心用标准集装箱尺寸,但不是标准集装箱的钢构做成PFB,然后运现场后拼装的模式,达到快速部署。更多详情可以参看下列链

13、接,而如果采用PEB做法,国内其实已经有不少案例,典型如远大建筑和上海城建,商业大楼和住宅楼都可以使用PEB的做法加快整体建造速度。远大建筑的PEB设计可以参考下面链接:国外也有不少PEB建筑,可以适应多层或单层建筑模型,单层结构设计跟Facebook的RDDC也比较类似,可以参考下面链接:使用PEB钢构设计,比传统建筑设计提升是显然的,主要体现在物料节省,部署速度更快,网络上有很多相关比较PEB和传统建筑的比较,可以参考下面链接:http:/theconstructor.org/structural-engg/pre-engineered-building-vs-conventional-b

14、uilding-comparison/7009/Facebook在RDDC设计上进一步做了一些机电模块和建筑模块的融合设计,例如钢结构上,IDC钢结构配合AHU+回风钢构刚好拼接成一体,从而进一步减少工程化风管的设计。笔者认为这种设计可能是考虑到下雪天室外维护AHU不太方便,因此形成建筑一部分,可以通过建筑内部进入AHU的每个内部模块进行维护。通常使用外置AHU都需要使用工程化风管设计进行相关送风和回风,如图15所示:根据Facebook工程师研究结果,采用RDDC模式,可以节省约一半的建筑材料和提升一倍建造部署时间(如图16所示)。图16 RDDC模式带来的好处有人可能会问,Facebook

15、在规划RDDC的时候怎么能够从概念推断出物料的成本和部署时间会节省那么多?还是做出来的时候才得出?当然不是做出来才验证,答案在于Facebook规划RDDC时候使用BIM设计。整个过程利用BIM的5D特性,可以非常精确模拟出整体交付速度和交付计划、整体物料成本BOM,以及相应绿色节能分析等。关于BIM的介绍可以参阅以下百度百科链接:附上两个Lulea一期的BIM图图17 Facebook Lulea数据中心一期BIM图A图18 Facebook Lulea数据中心一期BIM图B据笔者国内调研,暂时未发现有一个国内数据中心使用BIM做整体建筑和机电设计、项目施工管理和设施运维等,所以从这点看,国

16、内外的数据中心设计水平和能力相差甚远。关于Facebook在工具流程上如何规划RDDC,笔者在RDDC可能的研发流程章节中会给出个人猜想观点供读者参考。在电气模块布局上,Facebook采用Skid底座的预制电力模块,即把相应的电力设备集成在Skid钢架上,同时相关电气线缆已经预制和预连接,相关电气模块技术会在电气系统章节介绍。图19 Facebook Lulea数据中心一期电气模块布局写到这里,大家应该大致理解Facebook模块化、标准化、预制化的思路。但是依然有一个问题:数据中心不能全部在工厂集成好,然后整体打包运到现场,现场必然会有模块之间的工程连接,如何保证不会出现模块之间连接工程不

17、会出现手工作坊一样的人为错误呢?难道老外就比中国人好?国外做法是通过BIM在设计层面尽可能做到所见即所得,通过标准化设计和产品化的手段做成不同系统模块,整个IDC工程会尽可能拆分成很多标准模块,这些模块在工厂做预制并搭建好调试好,拆了之后运到现场拼装就行。笔者总结为:工厂化的预制和施工、BIM标准化设计和管理,把施工现场变成汽车装配流水线一样,类似富士康生产苹果手机的流程,达到快速标准作业。这是笔者对RDDC理念的理解,其实这也是贯穿无论谷歌、微软、亚马逊等IDC的建设理念。Facebook数据中心RDDC设计(下):图16 RDDC模式带来的好处有人可能会问,Facebook在规划RDDC的

18、时候怎么能够从概念推断出物料的成本和部署时间会节省那么多?还是做出来的时候才得出?当然不是做出来才验证,答案在于Facebook规划RDDC时候使用BIM设计。整个过程利用BIM的5D特性,可以非常精确模拟出整体交付速度和交付计划、整体物料成本BOM,以及相应绿色节能分析等。关于BIM的介绍可以参阅以下百度百科链接:附上两个Lulea一期的BIM图图17 Facebook Lulea数据中心一期BIM图A图18 Facebook Lulea数据中心一期BIM图B据笔者国内调研,暂时未发现有一个国内数据中心使用BIM做整体建筑和机电设计、项目施工管理和设施运维等,所以从这点看,国内外的数据中心设

19、计水平和能力相差甚远。关于Facebook在工具流程上如何规划RDDC,笔者在RDDC可能的研发流程章节中会给出个人猜想观点供读者参考。在电气模块布局上,Facebook采用Skid底座的预制电力模块,即把相应的电力设备集成在Skid钢架上,同时相关电气线缆已经预制和预连接,相关电气模块技术会在电气系统章节介绍。图19 Facebook Lulea数据中心一期电气模块布局写到这里,大家应该大致理解Facebook模块化、标准化、预制化的思路。但是依然有一个问题:数据中心不能全部在工厂集成好,然后整体打包运到现场,现场必然会有模块之间的工程连接,如何保证不会出现模块之间连接工程不会出现手工作坊一

20、样的人为错误呢?难道老外就比中国人好?国外做法是通过BIM在设计层面尽可能做到所见即所得,通过标准化设计和产品化的手段做成不同系统模块,整个IDC工程会尽可能拆分成很多标准模块,这些模块在工厂做预制并搭建好调试好,拆了之后运到现场拼装就行。笔者总结为:工厂化的预制和施工、BIM标准化设计和管理,把施工现场变成汽车装配流水线一样,类似富士康生产苹果手机的流程,达到快速标准作业。这是笔者对RDDC理念的理解,其实这也是贯穿无论谷歌、微软、亚马逊等IDC的建设理念。在今年OCP 2013峰会上,Facebook发布了最新的数据中心建设思路RDDC(rapid deployment data cent

21、er),其模块化、标准化、预制化水平到达一个新的高度,数据中心资深人士阿里巴巴IDC运营部陈炎昌特意撰文进行解读。陈炎昌关于Facebook数据中心RDDC设计以上下两期连载方式推出。上篇推出后广受好评(上篇链接:),本文为下篇,相信能让读者更深入理解RDDC。目录1.1 电气系统1.2 机械系统1.3 Flat pack微模块2 Facebook的PUE=1.04的奥秘3 RDDC对国内的启示3.1 RDDC的不足3.2 RDDC可能的研发过程3.3 RDDC对国内的启示1.1 电气系统Facebook的电气系统采用预制PF模块形式,形态上采用Skid based,即为钢构底座上集成了相关配

22、电设备,主要为低压变压器和相关低压配电柜。配电柜之间的线缆已经工厂连接好,现场只需连输入和馈线部分即可。关于预制系统,大家可以参考施耐德165号白皮书预制模块化数据中心的分类从平面图1看,笔者猜测背靠背配电柜采用背靠背布局,预装在钢构Skid上,如下图所示:图1 电气模块平面图图1为多个MSB(Main switch board)主配电柜单元,上方靠近维修门估计是配电散热单元。笔者认为背靠背设计更多是为了进一步缩减低配柜之间母排的长度,节省一点钱。若面对面布局,则同一侧的低配柜之间母联可能距离约3米,背靠背缩减到约1米。此设计类似GE公司的PowerMod,是艾默生的SmartMOD定制化产品

23、。由于没有相关材料,下面以GE的配电模块进行大致说明,PowerMOD如下图2所示:图2 GE的PowerMod配电模块从图2可以看出,GE的Powermod和Facebook的配电模块布局相似,靠上侧顶部为新风自然冷(配合蒸发冷却)。具体散热过程可以参看图3。图3 GE的PowerMod配电模块散热系统由于欧洲变压器最大容量可至约3150kVA(母线电流5000A),对Facebook的OCP机架电源分析,按照估计68kW/机架,一个微模块30个机架为180240kW(400A母线),一个AHU对应2个微模块,即约400500kW制冷容量。Skid做法的电气模块,一个典型的案例就是Digit

24、al Reality的POD 2.0,大家可以参看下面链接:由于笔者资料有限,难以把配电模块和微模块配电之间对应关系给出,但是从布局逻辑上分析,笔者猜想配电分区如图4所示:4x13个微模块分成4个区,每个区的两路电输入由一组两个变压器带,其余泵组和AHU用一组变压器带。每个区有13个微模块,微模块内部有母线槽,输入可以是由配电模块输出用母线槽自东向西走线给每个区的微模块供电。图4 配电区域分布图可能有人会认为,这种电力模块无非更多是把配电柜集成在一个钢架上,价值在哪里呢?笔者认为这里更多体现是工程化和产品化思路的差别。从技术上分析,这种集成的电力模块价值更多体现在,工厂预制是个时间并行的环节,

25、节省了传统设备进场集成的时间;而从成本上看,在一些地方优质工程人力获取和成本很高,工厂预制大大降低门槛同时确保质量。1.2 机械系统Facebook的机械系统采用预制PF模块形式,主要有Packaged pump集成泵模块和AHU空气处理单元模块两种。集成泵模块位置在电气模块下部,如图5所示。图5 集成泵模块布局图集成泵模块笔者仅从OCP峰会上演讲者口中获知,视频演示是类似集装箱形式,把水泵、水处理装置和相应管线都连接好做成接口的一个模块。如图6所示。图6 集成泵模块内部图内部结构估计是机械制冷泵组相关控制柜和配电柜,水泵和管线。而顶部有管道输出,接到AHU单元的蒸发冷却处。集成泵模块的设计,

26、类似施耐德APC的Hydronic水力模块,大致如图7所示。图7 施耐德APC的Hydronic水力模块内部图至于AHU,Facebook实际上是把俄勒冈的Penthouse设计改成AHU产品化形式做,把原来工程化设计进一步产品化和预制。此AHU也是艾默生北美公司定制开发产品,采用成熟的组合式风柜模式。目前有很多厂家可以生产,如传统商用空调厂家麦克维尔、工业用空调厂家GEA、精密空调厂家Stulz等都有相关产品。麦克维尔的组合式风柜AHU可以参看如下视频链接:Facebook的AHU图结构如图8所示。图8 Facebook的AHU结构图摘要:在今年OCP 2013峰会上,Facebook发布了

27、最新的数据中心建设思路RDDC(rapid deployment data center),其模块化、标准化、预制化水平到达一个新的高度,数据中心资深专家来自阿里巴巴IDC运营部的陈炎昌特意撰文进行解读。标签数据中心RDDCFacebook图9 艾默生的AHU结构图Facebook使用的AHU是艾默生北美定制版本,相关气流组织原理如图9,内部可以含有直接过滤、蒸发段、加湿段、风扇矩阵等。配合整个RDDC后,数据中心气流组织可以参看图10。图10 气流组织图从图11的布局图可以看出,实际上每个微模块对应1个AHU,而热通道空间为每个AHU的维护空间,维护可以从每个AHU功能模块的维护门进行。图1

28、1,AHU布局图1.3 Flat pack微模块在介绍Flat pack微模块之前,有必要说明Facebook的Openrack V2.0设计。2.0和1.0设计的最大区别在于,直流电源改为交流400V转12V直流一级电压转换设计,12V母线上挂锂电池。从布局图分析,笔者猜想Flat pack微模块有两种,网络模块和IT模块。1个网络模块对应12个IT模块。如图12分区所示:图12 微模块分区Flat pack微模块概念的开始,是Facebook把原有俄勒冈微模块设计进行分解,虽然是热通道密闭,但Facebook对截面图的视角是基于冷通道,因为冷通道是部署机柜的通道。如图13所示。图13 通道

29、密闭截面图Facebook发现,结构可以分为几部分进行拆解组合,分别为机柜顶部的框架,以及热通道框架,如下图14。图14 Facebook的Flat pack微模块分解图拆解后,进行产品化设计,灵感是来自IKEA宜家的拼装模式。机柜顶部框架集成弱电桥架、母线槽、照明等,具体结构化拼装如下图15所示。摘要:在今年OCP 2013峰会上,Facebook发布了最新的数据中心建设思路RDDC(rapid deployment data center),其模块化、标准化、预制化水平到达一个新的高度,数据中心资深专家来自阿里巴巴IDC运营部的陈炎昌特意撰文进行解读。标签数据中心RDDCFacebook图

30、15 Flat pack模块的组装过程从左到右,从上到下顺序介绍如下:1、部署热通道钢构和通道门;2、部署机柜框架(4个机柜宽度为单元)3、继续部署4机柜框架;4、安装横梁;5、安装Flat pack框架6、剩下为安装相关顶板附件等Flat pack框架组装如图16所示:图16 Flat pack模块的组成和运输Flatpack内部框架拆解为顶部和侧面板、钢构钢架、弱电线缆、母线槽、支撑件等。框架长度为30英尺,可以放15个机柜,每个机架为8英尺高,约2.6m。整体长度为40英尺,扣除机柜长度的30英尺,剩下10英尺作为通道。Flatpack的宽度为12英尺,约4m,扣除机架后冷通道超过1.6

31、m,而热通道宽度为4英尺(约1.3m),如下图17所示:图17 Flat pack微模块的尺寸产品化之后,原有工程化为主的支架变成产品化支架,实际上是Pre engineered后做成预构件的过程。截面图如下图18所示:图18 Flat pack微模块截面图三维显示如图19所示:图19 Flat pack微模块三维图2Facebook的PUE=1.04的奥秘Facebook在OCP的峰会上,提到有几个月Lulea的PUE可低至1.04。要知道1.04的PUE是几乎非常极限数值。简单来说,目前较好的UPS在线模式效率有96%以上,仅UPS一项就贡献约0.04的pPUE。所以即使什么都不用只有UP

32、S,PUE也不可能1.04,因为有变压器和线路是损耗,照明损耗。Facebook能达到1.04的PUE,主要做了两件事。第一是配电系统极简,后备式直流电源。正常时候使用市电直供而挂电池BBU等做离线备份,这样的话变压器和线路和照明损耗,基本pPUE至少贡献0.02。大家感兴趣不妨可以查阅相关线缆(母线)损耗数值变压器损耗数值,LED照明损耗等就可以计算得出。第二是制冷系统充分利用Lulea的低温和风机特性。下图是Lulea当地温度图图20 Lulea当地年温度图去年Lulea的温度低于20,即可以做到室外温度低于室内冷通道温度,无需机械制冷,对于风机来说,就是减少了盘管带来的风压损失。而AHU

33、会冗余配置,同时每台风量通常110%N。所以对应工况的AHU实际风机转速为70%左右。此时,风机实际耗能是满载的50%左右。举例150kW净显冷冷冻水空调,风机耗能仅2.53kW,即pPUE为0.02。读者感兴趣可以查阅相关风机参数计算,或者可以参考Stulz的DFC2折叠式盘管新风自然冷空调的参数,可以得到相似的计算结果。因此制冷和电气两个pPUE加起来,基本上能做到PUE=1.04。3RDDC对国内的启示3.1 RDDC的不足不足之处为笔者一些个人见解,由于水平问题和资料不足,一些推断可能是错误,欢迎各位指正。1) 倾斜式的建筑设计,其实可以作为雨/雪水收集,作为蒸发散热用,但由于Lule

34、a温度较低,蓄水或许较难。但目的是通过收集雨水,降低WUE(水利用率)2) 配电设备和电气模块对应布局是南北,路由是南北走向,对应供电的微模块的路由东西走向,导致配电路由对应优化不足。发电机配电似乎对应程度也不高。3.2 RDDC可能的研发过程RDDC改进点主要是在预制机电模块和钢构建筑。在此笔者着重解释钢构建筑部分和整体设计模式。整体设计使用BIM模式,主流BIM软件用ArchiCAD或者Revit Architecture做。钢构部分,可以使用Tekla Structure做相关PEB的钢构设计,通过IFC格式导入Revit或ArchiCAD。Tekla Structure的使用可以参考下

35、图21图21 Tekla structure钢构设计图在建筑部分完成后,相关机电工程可以使用Revit MEP。大致图如图22所示。图22 使用Revit MEP的BIM图通过BIM,可以得出施工周期计划、容量选择、物料BOM等,当然系统图可以使用传统2D CAD软件做。剩下Flat pack微模块为钣金件居多,可以使用Solidworks/Pro Engineer之类软件开发,得出产品化结构图如下:图23 使用Solidworks/Pro E的设计图对于机电模块,也是使用Solidworks/Pro E等工具进行设计,但由于一些机电模块尺寸为非标准集装箱。笔者猜测是艾默生美国设计后,然后生产

36、在欧洲,进而减少海运成本。3.3RDDC对国内的启示笔者认为RDDC(快速部署数据中心),快速部署两个着力点,标准化设计和标准化预制,归根到底就是设计和建造的产品化思维。目前国内很大部分的设计,看上去是模块化,但是都是基于项目,case by case的做法。标准化设计是每一个数据中心的设计都几乎一致,然后通过标准化预制PE/PF的做法。对于大部分用户来说,包括互联网公司谷歌、Facebook、微软等都不创造基础技术和不具备绝对核心技术,创新本质是新技术应用和资源整合优化。这种资源整合能力体现在对从业务、ICT设备、IDC立体化掌控力上,技术标准化总结能力,管理制度化流程化推广。举例子,Fac

37、ebook第一代微模块和Delta合作整合了服务器电源和配电,而直流电源部分其实Facebook并没有任何创新,只是资源整合优化。而再看Flat pack,也是把整个交付,标准产品设计进行整合,即使钢构建筑,AHU、预制机电模块等等都是资源整合优化,整合产品端和交付流程端。反过头来看,难道国内微模块和10年前施耐德推出的英飞系统有那么大差别么?实际上也没有,还是inrow,还是列头柜,还是上走线,通道密闭,产品侧优化主要是UPS变成高压直流,但这也是替换另一个成熟产品。目前国内互联网公司应用的微模块主要差别不是产品形态,而是在于通过产品化思路进行标准化设计和优化采购流程,交付。所以,对于未来国

38、内数据中心的发展,笔者认为会经过这两个阶段,首先是标准化设计,所有数据中心尽可能标准化,采用互联网思维迭代方式有不同适配设计版本,然后形成企业的标准化设计。第二步就是基于标准化设计图集,对不同子系统进行拆解再打包成模块,然后进行标准化预制。可喜的是,目前看到运营商经过以前大规模建设数据中心后,开始意识到标准化设计的重要性并尝试对集团自身的数据中心形成标准设计文档,逐步从系统概念设计到施工图设计都标准化,把原有69个月的设计时间压缩成12个月甚至更少。而后续设计时间压缩到极低时候,剩下优化的肯定是现场施工部分,那么预制一定是唯一的路。预制不仅仅是提高交付速度,也通过产品化管理模式提高了质量。结语:随着数据中心标准化的重要性逐渐被业界理解,未来数据中心市场将会出现更多标准化设计和集成化产品,从咨询设计公司、集成商、产品供应商将会调整自身策略,匹配这种市场变化。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高中资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:文库网官方知乎号:文库网

经营许可证编号: 粤ICP备2021046453号世界地图

文库网官网©版权所有2025营业执照举报