技术IDC

高密度算力集群 IDC:散热与供电的技术挑战及解决方案

2022-12-15 16:00:47 admin
高密度算力集群 IDC:散热与供电的技术挑战及解决方案

核心内容:AI 服务器单机功耗达 50kW,传统风冷系统无法满足散热需求,


需采用液冷技术适配。浸没式液冷适合整柜部署场景,将服务器完全浸泡在沸点 50℃的氟化液中,散热效率达 98%,

但单机柜改造成本约 15 万元;冷板式液冷通过金属冷板接触 CPU、GPU 等热源,成本仅为浸没式的 40%,

适合部分高功耗组件升级。供电系统采用高压直流(HVDC)方案,对比传统 UPS,转换效率提升 3%,

年节电达 8 万度,可支持单机柜 50kW 功率输出。英伟达 DGX 集群适配案例中,采用 “2N+1” 供电架构,

每 2 个机柜配置 1 组备用电源,通过 ATS 自动切换开关实现无间断供电;散热采用 “冷板 + 背板空调” 混合方案,冷板负责芯片散热,背板空调处理机柜整体余热,实测机柜进风温度控制在 28℃,GPU 温度稳定在 85℃以内。算力密度从 10kW / 柜提升至 50kW / 柜的改造步骤:第一步加固机房楼板(承重提升至 1600kg/㎡),第二步升级 HVDC 供电模块与铜排,第三步部署液冷系统并进行 72 小时负载测试。能耗控制技巧:采用华为智能配电柜实现动态功率分配,当集群负载低于 30% 时,自动关闭冗余电源模块;结合峰谷电价,在谷段(0-8 点)运行 AI 训练任务,降低 25% 电费成本。

关键词:高密度算力 IDC、液冷散热方案、HVDC 供电、AI 服务器部署、算力集群改造、冷板式液冷


首页
产品
新闻
联系