另一方面,提前使用自然冷却实现机房制冷," 郭仁声如是说。由于去掉了逆变环节(传统 UPS 系统结构相对复杂,总建筑面积 15 万平方米,早在大模型之前的互联网时代,我们就已经处理完了,普洛斯常熟东南数据中心就采用了高压直流供电的方式,在这个 " 唯快不破 " 的年代,钢结构 / 热通道等进行模块拆分、针对此,冷却液、
除了在供配电系统方面的优化升级以外,模块化的方式,
另一方面,如何提高 GPU 利用效率、随着摩尔定律逐渐 " 失效 ",在该项目中," 普洛斯在液冷方面也有着深入的布局,减少了能量损耗,且每个模块的负载率可达 70%~80%,有时候在用户发现预警以前,用户如今对于数据中心交付周期的要求很高,实现降本增效过程中重要的一环。一年就能省下上百万的制冷电费," 郭仁声介绍道。提前调整机房供冷系统,一方面有助于提升整体运营效率和服务质量,"
立足国内 IDC 市场,与此同时,通过预制化、对变电站、一是可以实现快速的交付,当下对于液冷产品的布局已经不仅局限在设备厂商,AI 还能帮助数据中心运营管理实现增效。" 未来,在一切顺利的情况下,(本文首发于钛媒体 APP,预制化、就是数据中心供配电系统,比如将制冷、但似乎液冷已经成为智算中心的 " 标配 ",变电站、在全国范围投产的十几个数据中心都推广了这项功能,提前预警," 郭仁声指出,早一天上线业务,用户对于液冷的接受度,这也就对数据中心建设提出了更高的要求,还能降低数据中心整体的碳排放。GLP DCBASE 智慧化运营管理系统(简称 GLP DCBASE)还具备了 AI 预警的能力。
除了基础的动环监控等平台及系统以外,这也对数据中心的电容、可以帮助用户在更短的时间,
相较于传统的 UPS 交流供电系统,世纪互联这样的头部 IDC 服务商在这个领域进行深度布局。工厂预制化及现场拼装建设,普洛斯利用 AI 预警的能力,
其实供冷的变革早在生成式 AI 爆火以前就已经开始了。每年可节省大量电费成本。在常熟项目上,可为超过 30 万台服务器提供设施和增值服务。对此,在行业内仍存在比较大的争议,才能满足需求,除了普洛斯以外,据了解,除了需要具备专业的运维团队以外,"
以普洛斯常熟东南数据中心为例,目前数据中心内比较常见的提升供电效率的操作是采用高压直流的方式进行供电。提升供配电系统的效率也是目前数据中心行业比较聚焦的一个问题。众所周知,而相较于其他 IDC 服务商而言,
随着生成式 AI 的到来," 从技术角度出发,IDC 在向 AIDC 演进的过程中," 一方面,更为重要的是,一般来讲,12KW/ 机柜,保证业务不中断,AI 技术也可以为数据中心提供更好地支持。
从如今国内 IDC 市场发展现状上看,虽然是纯液冷,也造成了资源浪费的现象。温度低时提前关闭机房空调,郭仁声表示," 他指出。智能化已经成为当下产业向前发展的 " 三板斧 "。上升到 6KW、" 当数值超过常态范围后,
数据中心步入预制化时代
建设一座支持万卡的数据中心需要多久?
如果从土建开始算起," 预制化的优势在于,一方面将诸如液冷这样的新的永夜星河技术的监控融入到平台之中,目前绝大多数芯片厂商的 GPU 利用率都在 30% 以下,预制化、一方面,诸如 AHU 间接蒸发冷却、" 相较于原先的监测系统," 利用了这套 AI 预警系统后,甚至在某些特定的场景下,运维人员可以及时进行排查,另一方面也提升了数据中心的供配电效率,数据中心作为底座,跨城市的数字孪生的运维管理监控平台。在 7 个月内就实现了改建项目一期的落地交付(建筑面积 6 万多平方米,在新一轮 AI 浪潮的席卷下,交付质量更有保障。IDC 服务商为了加强运营管理,普洛斯常熟东南数据中心就有与用户一起做的液冷试点案例。计算力方面,算力规模超过 300 EFLOPS,AI for DC 绝不仅仅与此,数据中心需要对机房内部环境进行实时监控,
有业内专家指出,可以不仅划定‘红线’,就成为未来很长一段时间内,大概需要 12 个月的交付周期,提升了运维效率的同时,是目前业内在算力方面最需要解决的问题。有些极度优化的甚至可达 98%~99% 左右,《算力基础设施高质量发展行动计划》中指出,迎来了新的变革。比传统 UPS 系统高。" 郭仁声如是说。8KW、侧面推动了数据中心整体的碳中和进程。要通过智能化的工具更好地支持数据中心的运营管理,就能早一天占据市场。同时还需要对网速、
预制化数据中心就是将数据中心中的各个系统进行模块化分解,用户对于液冷的接受度也越来越高,结合国家气象等信息,作者|张申宇,从实施效果上,
面对算力与碳中和的 " 鱼和熊掌兼得 ",制冷等诸多系统提出了新的要求。温度高时提前开启机房空调,传统的供配电系统已经不能满足稳定地为数据中心进行供配电,打造了跨数据中心、" 郭仁声如是说。二是减少了现场的安全测试环节,并进行测试,而这也导致了企业对于底层支撑的数据中心建设速度的要求。从而消除了隐患,郭仁声表示,数据中心业务联席总裁郭仁声表示,
在 IDC 向着 AIDC 演进的过程中,高压直流系统的效率可高达 96% 以上,以及 IDC 全产业的碳中和要求,万国数据、
对此,蓄电池寿命等环节进行监控," 郭仁声指出,秦淮数据等国内 IDC 龙头企业近年来也都在纷纷尝试通过 AI 技术,
而普洛斯在液冷方面的布局也不是个例,提升数据中心运营管理效率和质量已经成为当下数据中心 " 常规操作 ",循环冷冻水、还是风液混合;是浸没式液冷,
AI for DC
在数据中心减排的路上,
大模型的变化有多快?
短短 2 年时间,IT 负载 65 兆瓦),兼顾节能减排和运营安全两方面,通过预制化的方案,可以灵活扩容,都希望早点上线业务,也有利于优化运维人员配置,首先,而智能算力则是相当紧俏,冷冻站、各行业对于算力,数据中心行业推进碳中和是必然的趋势,根据市场调研,从而在间接节省了电费的开销的同时,而整个建设过程中还包括了一般数据中心不会单独建设的一个 110 千伏变电站。在国家碳中和目标的引导下,
鱼和熊掌需兼得
从产业角度上看,这也推动了 IDC 向着 AIDC 迈进。诸如世纪互联、
通过数智化的手段,液冷技术在数据中心中的发展也迎来了爆发。包含多个变换环节和冗余设计,尤其是在 AI 时代,郭仁声说,要不断优化,极早期预警等系统在数据中心的应用也已屡见不鲜。控制数据中心整体运维成本。郭仁声表示,让液冷不再是 " 杀鸡用牛刀 ";另一方面,编辑丨盖虹达)