订阅我们的时事通讯并保持更新
我们使用cookies是为了给您提供更好的体验。继续浏览本网站,即表示您同意我们按照我们的条款使用cookies饼干的政策。
世界范围内对数据处理的需求正在飙升。根据思科(Cisco)的数据,从2015年到2020年,这一数字将增长两倍左右。玩游戏、刷facebook、刷Netflix;他们正在增加消费级计算,但大约70%仍然是企业计算。年度全球数据中心IP流量将从4.7泽字节飙升至15.3泽字节。什么是泽字节?我不敢问。
在美国,数据中心正在消耗大量的电力——每年超过700亿千瓦时。但是,尽管数字处理的巨大增长,电力消耗的增长已经开始趋于平缓,从本世纪头五年的90%,到2005-2010年的25%,到2015年仅为4%。这是因为数据中心一直在解决能源使用问题,并取得了进展。他们可能会取得进一步的进展。数据中心使用的能源中有多达一半用于冷却,因此冷却一直受到广泛关注。
新的冷却理念
当美国政府开始指出全国大约2% - 4%的电力流向数据中心时,最大的用户——谷歌、苹果、Facebook、微软和eBay——已经在努力解决他们的能源足迹了。
起初,他们寻求更清洁的能源,在数据中心的屋顶上安装太阳能电池板,从风力发电场购买电力。后来,他们把一些数据处理工作转移到斯堪的纳维亚和加拿大等北部地区,把它们放在室外的笼状结构中,利用他们所谓的“自然冷却”,有时使用空气处理器。这只能为世界上最大的用户解决一些能源挑战,而且它并不真正适用于全球数以千计的小型企业数据中心,这些数据中心通常有强烈的理由将其处理设施设在总部和主要人口中心附近。
实验仍在继续。由于担心热点和冗余问题,数据中心管理人员一直在解决行业过度扩张的习惯。他们一直在追求热通道和冷通道密封、气流附件、服务器机架、蒸发冷却和数据中心基础设施管理(DCIM)软件。
谷歌在芬兰尝试了海水冷却为了减少对当地发电厂的依赖,苹果公司增加了LED照明和地热,微软公司实际上把一堆服务器封闭在一个水密水箱里,然后把它扔到海底。所有这些努力都有所帮助,但真正改变游戏规则的东西即将出现。
这是一个关于发明家的经典故事:一些人想出了一个新想法,却被嘲笑得无影无踪。大约十年后,同样的创新者准备把它做大。
这就是数据中心冷却正在发生的事情。在千年虫危机消失后不久,在IT会议上提出了创新的解决方案,但并没有受到重视。诚然,他们的提议是相当违反直觉的。让过热的电脑降温的最快方法就是把它扔进浴缸里,但大多数人会指出,传统观念认为水和电子产品是不相容的。另一方面,正如许多工程师所知,液体在散热方面比空气冷却要好得多。
除了前面提到的消费者驱动和企业数字化热潮之外,我们正在迅速进入高性能计算时代,其特点是对科学研究、云计算、大数据和人工智能的巨大需求。因此,我们的需求将迅速增加两倍。
液冷主机
“我们的液体吸收热量的能力大约是空气冷却的1200倍。绿色革命冷却在奥斯汀。他谈到了德克萨斯州的一所研究型大学,他的公司在那里安装了一个完全不同的数据中心。GRC不像微软那样把服务器放在水箱里,然后把它们扔进水里,而是把液体放在水箱里,完全淹没电子元件。
它是一种介电介质,一种不导电的合成矿物油混合物,叫做ElectroSafe……没有服务器风扇,它交换到一个水循环,”他解释说,这意味着热能从油通过热交换器转移到可达110华氏度的水循环,对蒸发冷却塔的要求不高。“它便宜多了。能源消耗减少了90%。PUE(功率使用效率)为1.03或1.05,而风冷的PUE为1.7。”
除了减少90%的冷却能源外,该项目还将服务器所需的电力减少了20%,并将数据中心的建设成本降低了约60%。该公司目前已经在全国各地以及日本、澳大利亚、加拿大、英国、西班牙、奥地利和哥斯达黎加完成了安装。
液体冷却可能开始流行起来,卢卡斯·贝兰说《国际先驱论坛报》Markit这是一家研究公司。“这可能会成为一场大运动,因为这是冷却服务器的好方法。你想让你的冷却尽可能接近实际的服务器,而不是冷却整个房间。这样效率会高得多。”他的公司研究了IT行业的降温历程。他指出,在为服务器供电的电力系统中也发现了效率,例如公用事业和备用电力系统的电缆馈电创新,但他承认,最近的许多成功都是在冷却领域取得的。
数据中心资深人士朱利叶斯·纽多弗北美接入技术公司。在纽约霍桑与人合著绿色电网的液体冷却技术更新白皮书,它消除了关于液体冷却的神话和误解。他试图在关于液体冷却的网络研讨会上对抗他所谓的“数据中心恐水症”。他列举了液体冷却的好处,包括节省电力、减少铜损耗、消除冷却器、更紧凑的设备、节省空间、更少的风扇和振动。
他指出,ASHRAE建议数据中心的工作温度低于80华氏度,空气冷却的排气温度为85 F-125华氏度,δ T为40华氏度,而液体供应温度为36 F-125华氏度,回流温度为105 F-145华氏度,δ T为20华氏度。
此外,他说,液体冷却允许更高的处理器密度。密集的IT系统为大数据提供了更好的性能,并允许设计人员将机架总功率从20 kW增加到100 kW或更多。空气冷却不能达到100千瓦,而液体冷却通常超过100千瓦,已知超过200千瓦。
便携式DCs
紧凑高效的服务器和液冷冷却的结合使得设计人员也为其他类型的数据中心问题创造了解决方案。他们推出了集装箱内的便携式DCs。这些可以通过卡车,铁路或航空运输,并吊装到偏远地区的位置,或增加紧急负载增强。
“我们的集装箱化数据中心非常棒,因为你可以在任何地方快速部署容器——在停车场或现场。你只要把它放下,把电源和水源连接到冷却塔上,然后打开它。因为它是一个密封的装置,它几乎可以放在任何环境中——热的、冷的、多沙的、多尘的——都没关系。一架直升机可以在它旁边起飞而不会产生任何负面影响。如果天气冷,只要打开开关,就不会结冰。这是一个非常有弹性的解决方案。”
Jens strukmeier博士云与热技术有限公司在德累斯顿,德国设计便携式数据中心解决方案,如GRC,以及现场数据中心和升级,为地球上最大的用户和许多较小的组织。他的公司的海运集装箱产品包含六个服务器机柜,并将液压系统和电缆管理系统存储在室内地板下。
在其他地方使用数据中心的热量
该公司的许多项目都实现了显著的节能,不仅通过万博手机版登录本官网液体冷却,还通过使用从数据中心取出的能源为建筑物的其他区域供暖。这是最近在法兰克福的一个综合设施中完成的,包括办公室、会议室、酒店房间和餐馆。为了管理波动的需求,使用了储热罐。
“板式热交换器作为一个转移点,将热源与分配侧分离……当超过一定的回流温度限制时,就会打开需求冷却器。”有两种可能性:
这家公司可能处于领先地位,利用数据中心可能被浪费的热量,并通过共享(“共同定位”)液冷设施,帮助小型数据中心运营商减少能源使用、碳足迹和成本。斯特拉克梅尔表示:“我们一直在分布式数据中心运营自己的公共云基础设施。最近在法兰克福开设的工厂配备了最新的英特尔技术和创新的水冷却系统。客户可以通过预订完整的服务器刀片或机架来预订经典的IaaS资源或托管云服务。因此,他们不需要为大数据分析或工业4.0应用等计算密集型工作建立自己的成本密集型数据中心。”
他描述了一个示例项目:“在三层楼的125个服务器机架上,总共配备了75%的cpu, 20%的gpu, 3%的硬盘和2%的其他设备……cpu和gpu(图形卡)是水冷的,输出温度为140华氏度- 149华氏度。”通过热交换器传输到加热回路,大约可以达到135 F-145 F。如果余热可以重新利用,服务器就不需要额外冷却。因此,可以利用95%的IT设备的能源。其中5%需要空气冷却。”
他说,假设数据中心的年产能利用率达到约50%,那么就可以节省16万欧元的供暖成本和32万欧元的制冷成本,总计约为58万美元。
尽管看起来很奇怪,但看起来电子元件的液体冷却可能真的是一件事。它甚至可能是一个解决方案,可以解决你无休止地玩游戏、刷Facebook或Netflix时地球如何管理能量的问题。