基础架构

建设提速,信息“诺亚方舟”如何摆脱“能耗巨兽”魔咒?

LensNews

12月5日,《时代》周刊发表了传统的年度回顾文章。当期杂志的封面上写着巨大的数字2020,数字上面被打了个红叉。下面写着“史上最糟糕的一年”。

影评人斯蒂芬妮·扎查雷克称:“如果2020年是一个反乌托邦式的电影,你可能会在观看20分钟之后关闭它。”

受到自然灾害、新冠疫情的影响,全球很多国家经济增长出现停滞。但国外的疫情并未得到很好的控制,更为糟糕的事情恐怕要延续至2021年。

而相比之下我国则成为了万众瞩目的新焦点,不仅在下半年力挽狂澜地实现了经济增长,而且还通过“新基建”进一步推动经济。

2020年4月,国家发改委明确新基建范围,提出“以新发展理念为引领、以技术创新为驱动、以信息网络为基础,面向高质量发展的需要,打造产业的升级、融合、创新的基础设施体系”的目标。

新基建主要包括5G基站建设、大数据中心、人工智能、工业互联网等七大领域,涉及诸多产业链。

数字经济推动数据中心飞速发展

作为一切数字化、信息化的基础设施,未来的数据中心将承载一切!根据工信部数据,2019年大数据中心市场规模为1562.5亿元。亿欧智库预测,未来6年大数据中心市场规模复合增长率将达到20%,累计投资规模为1.9万亿元。
2020年3月,中共中央政治局常务委员会提出了加快数据中心等新型基础设施建设的要求。数据中心作为基于新一代信息技术的基础设施,是算力的典型代表,数据中心发展迎来风口。但数据中心作为新型基础设施,其建设一直被能耗过大等问题所困扰,秉持绿色化发展原则已经成为了全社会的共识。数据中心作为信息的诺亚方舟,只有通过降低PUE才能摆脱能耗巨兽的魔咒。

数据中心散热技术发展经历了多个阶段

我们先来看看数据中心的发展,60年代的时候,普遍称其为机房,因为那时没有统一的标准,各种机房设施相对简陋,计算机的摆放也非常随意。到了90年代机房开始有了标准,UPS及恒温恒湿的空调设备引入,可以称之为第二代数据中心。

2000年之后,IT设备需要24小时不间断运转,更加专业的数据中心出现,专业空调配合气流控制系统成为散热标配,另外在供电和防雷方面也更加完备,这是第三代数据中心。

第四代数据中心诞生在2010年后,进一步融合了云的元素,高密度、模块化等概念也对数据中心进行了细分。同时,服务器机柜列间空调广泛使用,配备了更精细化的气流控制系统,并辅以更加完善的远程监控、自动化运维等系统,进一步简化了管理。

那么,第五代数据中心应该是什么样子呢?

正如前文所述,新一代数据中心重点考虑的是节能与散热。数据中心的功耗主要来自IT设备及空调,目前常见数据中心的散热方式是风冷,通过空调制冷来冷却数据中心的方式已经沿用了几十年之久。但随着数据中心规模的不断扩大,CPU、刀片服务器等设备发热量激增,使得风冷散热方式的能耗越来越高,PUE值难以降低。

建设提速,信息“诺亚方舟”如何摆脱“能耗巨兽”魔咒?

国家节能中心及中国电子节能技术协会数据中心节能技术委员会联合发布的统计数据显示,2012—2016年,我国数据中心的年耗电量增速始终维持在12%以上,最高达16.8%,并指出“数据中心的高能耗不仅给机构和企业带来了沉重负担,也造成了全社会能源的巨大浪费”。

既然是这样,那么将数据中心部署到高纬度地区,通过自然风散热,不就可以解决了吗?

目前我们看到有些互联网企业将数据中心部署至北方地区,在冬季等时段可以不用空调冷却,从而降低能耗。但这也并非万全之策,在炎热的夏季或者恶劣天气的情况下,数据中心依然需要空调进行冷却。而且对于数据中心建设而言,所有散热设施必须齐备,仅仅是空调使用时间变少了,硬件及基础设施投入依然不减。

因此对于规模庞大的数据中心来说,这种方式并不能解决所有问题

液冷技术优势明显

综合来看,还是液冷更符合可持续发展。
关于液冷与风冷的对比,我们先举个简单的例子,刚煮熟的鸡蛋,如果用风扇吹,需要很久才能凉;倘若放置到冷水中,则很快就能变凉。

建设提速,信息“诺亚方舟”如何摆脱“能耗巨兽”魔咒?

同体积液体带走热量是同体积空气3000倍,使用液体取代空气作为冷媒,为发热部件进行“换热”,能够使散热效率大大提升。喜欢硬件DIY的超频发烧友和硬件爱好者也经常摆弄液冷套件,通过更高效的散热让处理器、显卡超频发挥最大效能,更有利于突破频率极限,同时还比风冷更加静音。在服务器领域也是如此,液冷系统比风冷系统节电30-40%;单机柜功率密度极大提升,液冷机柜可以节省空间80%

相变浸没式液冷带来数据中心散热新突破

随着技术的飞速发展,液冷也逐渐从冷板式过渡到浸没式。
冷板式液冷相信大家都非常熟悉了,比较常见于服务器、超频台式机,主要通过水管、水泵和换热腔体连接,为CPU和GPU等设备散热。

建设提速,信息“诺亚方舟”如何摆脱“能耗巨兽”魔咒?

浸没式则是用不导电的冷却液把包含所有配件的主板“泡”起来,再通过冷却液流动带走热量。其优势在于能够为所有芯片、配件进行散热,包括:CPU、GPU、芯片组、内存、网络芯片等等,整体散热效果又进一步优于冷板式。
例如,基于曙光相变式全浸没液冷技术的“曙光硅立方液体相变冷却计算机”,PUE能够降至1.04,相比风冷数据中心能效比提升超30%,核心部件性能可提升20%,计算设备可靠性至少提升一个数量级。如果我国的计算中心、数据中心都采用此项技术,一年可节省电力400亿度,相当于三峡大坝一年发电总量的1/3。在新基建的推动下,信息“诺亚方舟”正在飞速拓展中,云计算、大数据、人工智能、5G等需求促使数以万计的数据中心拔地而起,如何摆脱“能耗巨兽”魔咒关键还要看液冷技术的应用。只有通过新技术的落地,才能让数据中心铸新淘旧,实现真正的绿色、高效!

12月10日,在第十五届中国IDC产业年度大典“液冷科技”专场分论坛上,国内首个关注液冷数据中心发展的白皮书——《中国液冷数据中心发展白皮书》将发布,新基建推动下数据中心即将迎来一场全新的绿色革命,如何才能在竞争中立于不败之地?敬请关注!

(0)

本文由 计算杂谈 作者:云中子 发表,转载请注明来源!

关键词:
LensNews

热评文章

发表评论