随着处理密集型计算应用的不断增长,数据中心运营商正在评估液冷技术。到 2026 年,液冷市场将达到 30 亿美元,这是由于组织将采用更多的云服务、使用人工智能 (AI) 来推进高级分析和自动决策,并启用区块链和加密货币应用等。
目前,数据中心支持超过 20 千瓦 (kW) 的机架功率要求,但市场上的功率要求将达到 50 kW 或更高。相比于上一代架构,更新一代的中央处理单元 (CPU) 和图形处理单元 (GPU) 具备更高的热功率密度。此外,服务器制造商正在将更多的 CPU 和 GPU 打包到每个机架中,以满足对高性能计算和 AI 应用的加速需求。
风冷技术处理正在暴露其局限性。风冷系统根本无法以高效、可持续的方式冷却这些高密度机架。
因此,数据中心运营商正在研究其液冷技术。液冷利用水或其他流体较高的热传导特性,来支持高效经济的高热密度机架冷却,其效率比使用风冷高 3000 倍。长期以来,液冷技术在大型机和游戏应用中得到验证,目前正在不断扩展,力争保护世界各地数据中心的机架式服务器。
维谛技术 (Vertiv) 已经创造了一系列的资源,以帮助您了解液冷所带来的挑战、机遇和技术要求。这些资源将帮助您决定如何在数据中心覆盖区应用和扩展液冷技术。
对比液冷与风冷:热管理系统如何进一步发展
注意:红色虚线边界为液冷的可行选项
了解液冷的不同选项与性能
数据中心运营商正在寻求液冷的三种途径之一。他们正在开发纯液冷数据中心,具有新基础设施的面向未来的风冷设施,以支持未来的液冷机架,并将液冷集成到缺乏基础设施的现有风冷设施中。大多数人可能会选择后一条道路,以获得满足短期业务需求并提供快速投资回报的产能。
安装液冷技术可能会变得复杂。数据中心团队希望与合作伙伴携手合作,考虑关键问题,包括管道系统要求、冷却分配、平衡容量、风险缓解策略和散热系统。
液冷选项包括:
-
后门热交换器 - 被动式或主动式热交换器采用液体换热器替代 IT 设备机架的后门。这些系统可与风冷系统结合使用,以冷却具有混合机架密度的环境。
-
直接到芯片液冷 - 直接到芯片的冷板位于接线板的发热组件之上,通过单相冷板或两相冷板来吸收并带走芯片的热量。这些冷却技术可以清除机架中设备产生的约 70-75% 的热量,而留下的 25-30% 的热量,必须通过风冷系统清除。
-
浸没式冷却 – 单相和两相浸没式冷却系统将服务器和机架中的其他组件浸入导热介电液体或流体中,无需风冷。此方法可最大化冷却液的热传导特性,也是市场上最高效节能的液冷方式。
了解风液混合系统和全液冷数据中心的选择
无论您处于液冷之旅的哪个阶段,维谛技术 (Vertiv) 都能提供解决方案和服务,帮助您实现业务目标和技术要求。
作为热管理领域的全球领导者,维谛技术 (Vertiv) 为液冷带来了全面的方法。我们的解决方案基于与能源-智能电子系统中心 (ES2) 合作大学、绿色电网和开放计算项目以及 Green Revolution Cooling 合作多年的研究和开发。
通过这些努力和我们的密集液冷研发计划,维谛技术 (Vertiv) 能够满足不断变化的客户需求。我们提供一系列解决方案,支持混合风冷和液冷以及全液冷数据中心,包括:
-
冷却液分配装置 (CDU) 和室内制冷机,专为提供完整的数据中心液冷解决方案而设计
-
主动式和被动式后门热交换器
-
创新高效的浸没式液冷系统
-
专为液冷 CDU 和冷水机组设计的可共用的室外散热单元
-
助力改造风冷设备以支持液冷方案的应用
-
提供适用于液冷方案的调试、开机、运行的实践和服务。
了解液冷的维护要求
数据中心运营商担心将液体转移到机架中存在风险,这也是迄今为止液冷增长的最大阻碍。目前部署的液冷系统通过限制分配流体的液体量并将液体检测技术集成到系统组件和管道系统的关键位置,将设备损坏的风险降到最低。
使用介电流体时,设备因泄漏而损坏的风险被消除,但这些流体的高成本证明了有必要使用与水基系统类似的泄漏检测系统。建议任何将液体带入其数据中心的人阅读“OCP开放计算项目”的一篇论文:《泄漏检测与集成》以加深了解。