本站点使用Cookies,继续浏览表示您同意我们使用Cookies。
Cookies和隐私政策>
1、什么是液冷?
液冷是指使用液体取代空气作为冷媒,为发热部件进行换热、带走热量的技术。
液冷服务器是指将液体注入服务器,通过直接或间接的冷热交换带走元器件发热量的一种服务器。
液冷数据中心是指应用液冷技术和液冷服务器等设备的数据中心。
2、介绍一下浪潮信息的液冷产品?
浪潮信息液冷是以浪潮信息自研液冷服务器和液冷数据中心产品技术为核心的新一代数据中心解决方案。
借助服务器市场的领先地位和先进技术,浪潮信息为客户提供液冷通用服务器、液冷整机柜服务器、液冷高性能服务器和液冷人工智能服务器,并在M7平台全面实现“ALL IN 液冷”,帮助客户规划、设计并建设节能低碳的绿色数据中心。
浪潮信息液冷数据中心最低可以实现PUE低于1.1,并具有节省能耗、节约占地、降低噪音、TCO低、增加装机量、减少地域气候对选址的影响、延长设备寿命、降低元件故障率等众多优势。
3、液冷与风冷数据中心的区别?
(1)设计:液冷无需数据中心机房中的制冷冷机和末端空调,利用液体代替空气,提高了散热效率。
(2)选址:液冷不必因为PUE和运营成本而优选寒冷气象区,可完全跟随业务需求新建或者改扩建,发展潜力更大、适用地区更广。
(3)建设:由于限制最少和政策支持,在业务需求相同的情况下,新建数据中心最适宜应用液冷方案。扩建数据中心需要选定适当比例的空间兼容液冷,提升整体运行效率。改建数据中心则需根据机房楼板承重,视实际情况进行机房的加固,为液冷留出适度裕量。
(4)交付:液冷数据中心的交付需要充分考虑冷却液的运行工况,对于管道、线材、机柜尺寸、承重等也提出不同的要求。
(5)运维:液冷数据中心的运维周期一般为传统数据中心的3-5倍,并且去除了风扇的噪声,工作环境对运维人员更为友好。
4、液冷数据中心PUE能达到多少?
数据中心PUE(Power Usage Effectiveness)与所在地区的气候和数据中心的设计架构直接相关,实际运行过程中更是受到室外环境、季节、负载率、运维管理水平等因素的影响。
液冷数据中心的PUE还与液冷占比相关。数据中心完全采用液冷时pPUE可达到1.04。液冷与风冷负荷各占50%时,制冷系统pPUE可达到1.16。
注:此处只考虑制冷系统PUE,供配电、照明等系统PUE一般相差不大,不计入对比。
5、液冷是如何实现降低PUE的?
一个典型的数据中心中,IT设备能耗占50%,制冷系统占30%,其他系统占20%,可见制冷系统是数据中心除IT设备外能耗最大的系统。而制冷系统中,压缩机是能耗最大的部件。
液冷系统通过减少甚至完全取缔带有压缩机的空调机组(如风冷直膨精密空调、冷水机组等),采用功率较小的闭式冷却塔+换热单元(CDU)的形式,降低制冷系统能耗。
6、液冷与风冷的成本及投资收益对比?
由于增加了水管、快插接头、漏液检测、机柜加固等内容,但液冷机柜可以支持的服务器上架满配、同样装机量下可节约50%机柜数量,综合来看,平均一台液冷机柜比风冷机柜增加2万元。由于增加了闭式冷却塔,但减少了开式冷却塔和冷水机组,外部冷源、管路、阀门等系统投资,液冷与风冷持平。
液冷系统投资增加主要体现在机柜层面。
液冷占比50%相比全部采用风冷的数据中心而言,PUE可降低0.2,假设总IT负载为5000kW,按风冷规划1000台机柜(单机柜5kW),按液冷规划500台机柜(单机柜10kW),液冷比风冷多投资1000万元。
假设数据中心实际运行负载率50%,则年平均耗电量为5000kW*24h*365*0.5=21900000kW·h,按每度电1元计算,则年总电费为2190万元。
液冷系统年节约电费2190*0.2=438万元,相比于全风冷建设而言,2.28年即可持平,第3年起每年可节约电费438万元,数据中心20年的使用周期内可节约电费8760万。
7、液冷可靠性怎么样/怎么防止泄漏?
从规范看:国内外纷纷出台液冷相关的白皮书、团体标准和行业标准,国内21年底发布了一系列液冷行业标准,22年4月开式实施,说明液冷有规范可依,浪潮信息也是参编单位之一。
从产业看:在行业发展和众多厂商推动下,液冷包括液冷服务器、液冷冷板、冷却液、快插接头等相关产品部件,配套管路、阀门、冷却塔、水泵等通用设备,液冷数据中心具有成熟的产业链体系和生态。浪潮信息凭借数据中心和IT市场多年深耕的积淀,为推动液冷产业的发展做出了极大的贡献。
从工艺看:浪潮信息生产测试中心部署了流体连接器、拉拔力测试仪、气密性检测、内窥镜检测、颗粒度检测仪、负压烘干箱等高精度智能化设备可以满足各项研发、测试需求,为满足液冷产品生产需求,浪潮信息液冷生产测试基地制定了严格的生产工艺及标准,保障液冷产品的可靠性。
从系统看:液冷系统内外两个循环系统均为闭式系统,驱动水泵一般采用双备份的变频水泵,循环系统的运行工况非常稳定;CDU、管路和其他主要器件均会考虑冗余配置,确保任何时候维护更换时不停机;主管路一般采用环型管路,确保任何一个机柜需要的液冷水均可以从二个方向流入。浪潮信息有专业的数据中心团队进行液冷数据中心系统的规划和设计,为客户提供高可靠、高可用、高性价比的优选方案。
从部件看:当前业内液冷板加工工艺以及管路连接技术非常成熟,经过大量的、长时间的测试和验证,泄露风险极低;液冷服务器均采用快插接头,快速插拔不会泄露,使用寿命内支持上万次插拔。
8、如何保证液冷安全?
多种措施保障高可靠:①采用铜冷板,无腐蚀风险;②采用三级漏液检测(节点级、机柜级、机房级),与BMC联动(可选自动关机)
国内液冷服务器市占率第一(IDC 《中国半年度液冷服务器市场(2023全年)跟踪》报告),数万台液冷服务器长期运行无泄漏
9、液冷泄露了怎么办?
液冷泄露主要有服务器内部、机柜内管路泄露、机房管路泄露等方面。
(1)服务器内部泄露:浪潮信息服务器内部冷板及管路上缠绕漏液检测线,控制芯片嵌入到服务器主板上,一旦检测到泄露,立即告警联动当前服务器节点电源管理断电或告警(模式可自定义设置)。
(2)机柜内泄露:机柜进回液支管可配置电磁阀,一旦检测到泄露可联动报警并切断电磁阀,及时切断故障部分系统运行,避免故障扩散。
(3)CDU泄露:液冷系统一般设置N+1冗余或2N冗余的CDU,当一台故障或维修时,可停机并切断与主管路的连接,其他CDU不间断运行。
(4)管路泄露:管路是系统非常可靠的部件,不止液冷系统,传统冷冻水数据中心以及其他商业工业领域均有大量应用。只要在投运前做好打压、保压测试,实际运行几乎不会发生泄露。
10、液冷数据中心是否需要定期补液?
系统运行时,冷却液有微量损耗,因此需要补液。但是液冷系统内有补液箱,工作时CDU可自动向管路中补液,可以减少冷却液的补液频率。补液箱内有液位传感器,当冷却液存量较少时,可提醒运维人员手动补液。一般来说系统一年需要1~2次手动补液。
11、浪潮信息自研CDU有哪些优势?
(1)溶液检测:选配溶液监测部件,包含电导率、浊度、PH检测;
(2)支持冷备/热备,具有轮巡和层叠功能:CDU可定期自动切换,在冷量不足时自动启动备机,保证可靠性同时延长器件寿命;
(3)二次侧支持0~100%负载调节:可实现全旁通无负载运行;
(4)过滤器在线维护:过滤器可旁通运行,在线不停机维护;
12、老旧数据中心如何改造液冷?
能否改造液冷、以什么形式改造液冷,需要根据老旧机房的实际情况进行评估。老旧机房改造液冷一般有以下几种情况。
(1)屋面或室外空地有一定的空间、有液冷管路的路由,具备一定的冷源改造条件。在这种情况下,主要考虑改造后的节能效果,大幅降低PUE,推荐增加液冷系统所需的闭式冷却塔或干冷器,以及一次侧水泵、水处理装置、水箱等配套设施;主机房内部需按照新的液冷系统规划,布局液冷机柜、风冷机柜、液冷CDU、风冷空调、配电柜等相关设备,增加二次侧管路。
新增液冷冷源改造对机房的要求较高,收益也较大,PUE可降低0.2以上。
(2)屋面或室外不具备新增冷源的情况下,如果现有机房采用冷冻水系统制冷,可以利用既有冷冻水同时作为液冷和风冷的冷源,重新规划液冷与风冷机柜的配比,仅需增加液冷CDU和二次侧管道即可完成液冷改造。
冷冻水冷源利旧节能收益稍弱,但可以避免对机房楼、管道井等做大幅度改造,施工难度小、对现有业务影响小。
(3)既不具备新增冷源条件、也没有利旧冷源的情况下,推荐采用风液混合冷却数据中心解决方案,即保持现有机房、空调、机柜等不做大的变动,仅搭配液冷服务器和风液式CDU,只在机柜级做改造,利用现有机房空调制冷,便可以实现液冷服务器的部署。
风液混合冷却数据中心方案适用于改造条件比较差的机房,是一种方便快速部署液冷服务器、解决高密度服务器散热风险的一种解决方案。
13、如何解决液冷改造难的问题?
小规模试点/POC场景,推荐风液式CDU+液冷服务器的“零改造”方案(有代表案例)
利旧原有冷源场景,推荐新增液液式CDU+一/二次侧系统的“微改造方案”(有代表案例)
无可利旧场景,可提供冷源+MDC+服务器全套新建液冷方案(有代表案例)
14、采用液冷是否会被某个厂家绑死?
OCTC组织牵头四项液冷部件团标,推动液冷行业标准化
支持节点级、机柜级和机房级多种液冷解耦方案
15、液冷是否支持解耦?
浪潮信息可以提供各种界面的交付模式,提供灵活的解耦方案,但在大多场景下仍然推荐采用服务器+机柜、服务器+机柜+液冷二次侧的打包交付模式。
16、什么是解耦?
液冷解耦一般有三个界面,分别是服务器与机柜解耦、机柜与二次侧解耦、二次侧与一次侧解耦。具体界面及对比如下:
17、解耦的目的是什么?
体量较大的头部客户,尤其是服务器选型和机房建设分别由不同部门负责的客户,在通用机型场景会更倾向选择解耦方案,使得用户具有主导的自主性:
(1)灵活。可根据业务需求和机柜空置情况来上架不同产品,并实现搭配组合,机柜上架密度和产品组合无需前期定义,避免了生产前的整机柜绑定。
(2)可扩展。引入新供应商时,发布引入规范,服务器供应商根据投标产品、做水冷板&水管&快接头的导入,符合技术规范就可以满足技术要求。并可根据机房规划/机房租赁情况做整机规模的扩展布局。
(3)可继承性。在服务器产品跨代,导入新产品时,原技术规范仍适用,变化点主要是机柜深度和供电能力(上架密度),mainfold和快接头不变的前提下,实现不同代际产品的平滑切换。
(4)成本。有采购规模和持续采购需求时,有多家供应商并有潜在供应商可选择,有议价能力。在技术的不断迭代发展时,与多家供应商和液冷设备供应商持续交流,可保持对技术前沿的关注和跟踪。选择成本最优方案做导入。
18、解耦面临的挑战有哪些?
当前整个数据行业来说,液冷还处于处于探索期,互联网以深度定制为主,运营商、金融等市场刚刚起步,技术标准化程度低。
由于机柜侧快接头、Manifold 没有统一标准和规范,不同厂家快接头型号选型不统一、不同产品散热需求不同决定了冷板流阻很难统一、快接头在服务器的出口位置不统一、服务器尺寸不统一、IO接口位置不统一等,导致液冷机柜和液冷服务器解耦难度大,尤其是4U及以上高度的机型(高密、AI等)接口差异更大、解耦难度也更大。
19、如何实现解耦?
一二次侧解耦方式:从业界实践来看,二次打包采购,由液冷厂家负责液冷机柜、服务器、CDU和二次侧管路工程端到端保障是最佳方案。以CDU的一次侧接口为界面,用户在机房冷源侧预留标准的暖通系统接口即可保证各家设备与其对接。
机柜与机房解耦方式:液冷机柜和液冷服务器由同一厂家统一交付,CDU 和二次侧管路工程另外单独采购,液冷机柜采用统一的接口(一般为一吋卡盘),二次侧管路预留一吋卡盘接口即可实现解耦。
服务器与机柜解耦方式:在机柜方案成型、标准统一、manifold预留接口一致的情况下也可实现解耦,各家服务器通过软管与机房机柜侧预留的接口进行对接(直接连接或增加转接)。
20、浪潮信息液冷给客户带来的价值?
(1)提升上架率:液冷服务器主要发热元件采用冷板+液体流动散热,不受单机柜功率密度和局部热点限制,支持不间隔上架部署,42U机柜最大可支持19台2U服务器上架;
(2)增加装机量:液冷服务器风扇功耗比风冷服务器低(一台780W风冷服务器采用液冷功耗仅695W),同等IT电力容量下,装机量可提升12%;
(3)减少占地:同等装机量下,液冷机柜数量仅为风冷机柜数量的一半,大幅节约机房占地面积;
(4)降低故障率:液冷服务器风扇频率降低、振动影响减小,降低硬盘故障率;液冷服务器排风温度比风冷服务器低约20℃,热敏部件(如光模块)运行环境得到优化,故障率降低90%,寿命提升3倍;
(5)延长寿命:CPU、GPU、VR、内存等高发热元件采用液冷散热,平均运行温度可比风冷散热低10~20℃,保证高性能的同时还能延长使用寿命;
(6)降低噪音:风机是机房噪音的主要来源,服务器采用液冷,风扇频率大幅降低,且机房空调数量减少,噪音可比风冷数据中心低10~20dB;
(7)节约电费:液冷数据中心PUE可低至1.1,比一般的风冷数据中心低0.15~0.3,节约电费、降低运营成本;
(8)社会责任:采用液冷是响应国家双碳政策、体现企业社会责任的途径之一,互联网头部厂商纷纷通过液冷等绿色技术实现企业节能减排。
21、液冷投资收益如何?
整体投入仅增加10%,每年可节省20%电费,2年内收回成本(GPU液冷1年内收回成本)
芯片温度降低10~15℃,风扇转速从70%降低到20%,降低整机振动,硬盘故障率降低30%,提升服务器生命周期2-3年。
22、浪潮信息液冷有哪些客户?
浪潮信息液冷在互联网、科研机构、高校和企业等行业客户都有过成功的应用。