返回栏目

国内首款42kW智算风冷算力仓正式发布

发布时间:  浏览: 次  作者:编辑

国际网(www.guoji.net.cn)讯:近日,国内首款42kW智算风冷算力仓发布,单机柜可部署AI服务器的数量是传统风冷机柜的6倍以上,实现业界风冷单机柜功率密度从3~7kW到超高密度42kW的跃升,在提升算力密度的同时降低能耗,相比传统风冷数据中心整体节能25%以上,是目前最佳的且经过大规模实践验证的高密风冷智算中心建设解决方案。

42kW智算风冷算力仓以AI算力为核心,是为AI服务器量身定制的支持高算力密度部署的新一代智算基础设施,兼容国内外主流的CPU和异构加速芯片,集计算/存储/网络于一体,高效融合机柜、配电、UPS、空调、监控、消防等系统,基于标准化、去工程化、运行效率最优化、管理智能化等原则设计,可以支撑自动驾驶、生物制药、AIGC、智能制造等多场景应用。

在新一轮科技浪潮的推动下,人工智能产业正蓬勃发展。数据显示,2023年我国人工智能核心产业规模超5000亿元,增速13.9%,相关企业数量超4000家。而随着人工智能技术持续突破,智能时代加速到来,数据中心机柜功耗及功率密度急剧攀升。在过去十年,CPU 热设计功耗(TDP)几乎翻了一番,而GPU热设计功耗已从2008年的不足200W增长到现在的1000W,同时全球数据中心单机柜功率也随之快速增长,预计到2025年平均功率将达到25kW。

面对AI算力需求爆发,高功耗芯片、高功率AI服务器及单机柜功率密度的发展,大规模、高密度、低能耗无疑是下一代智算中心的主要演进方向。然而,提升算力密度与降低能耗往往存在矛盾,几乎是不可能同时完成的任务,如何使二者由“非此即彼”的关系转化为“携手并进”,满足“既要又要”的需求,已成为AI时代智算中心建设的核心挑战。

传统数据中心单机柜功率多为3~7kW,1台AI服务器需要占用两个机柜的电力和散热资源,机柜资源、机房空间严重浪费,机房需要实现更高算力密度的部署,并解决随之而来的如何在有限空间内实现高效散热的问题。

为解决智算中心建设高密度部署、高功率散热“两手抓,两手都要硬”的问题,能投天府云和浪潮信息创新开发42kW智算风冷算力仓。

在高密部署方面,42kW智算风冷算力仓的单机柜功率密度从3~7kW提升至42kW,是传统风冷机柜的6倍以上,输出超高密度算力,挑战风冷极限,实现高密部署,相比传统数据中心,减少40%模块部署量,减少建设用地60%。

从3~7kW到42kW,单机柜功率密度实现超6倍的飞跃,这得益于42kW智算风冷算力仓在高效节能方面的多项创新实践。42kW智算风冷算力仓融合中压到末端馈线的全功率简链路供电及高效UPS系统,有效降低电能损耗30%以上;采用冷热通道全密封+列间空调高温进水模式,将冷热气流循环与外界环境进行隔离,避免了冷量散失,使其得以100%利用,采用18℃高温进水,相比传统数据中心提高3~6℃的进水水温,制冷系统能效比有效提升10%以上;并通过AI智能管控平台,实现制冷系统联动调优,从而保障单柜42kW智算设备的正常运行,整体节能25%以上,风冷散热PUE大幅降低。

在成功应对“高密度、低能耗”挑战的同时,42kW智算风冷算力仓还采用模块化设计、去工程化安装,一周即可完成部署,AI服务器和数据中心基础设施一体化交付,建设周期缩短了70%。此外,在运维管理方面,42kW智算风冷算力仓采用浪潮信息自研AI管理平台,打通基础设施和IT设备统一纳管,安全可靠性提升30%,并采用AIStation智能业务生产创新平台,有效提升大模型算力平台的使用效率。

目前该方案已经在坐落于四川能投天府云数智产业园的天府智算西南算力中心批量化部署,在有限空间内部署高功率风冷机柜,节省空间60%,并实现模块内IB组网,降低50% IB线缆成本;同时,面对业界最高功率密度设计的GPU机柜,采用创新节能技术,降低电能损耗,实现对服务器散热的精准控制,相比传统风冷数据中心节能提高25%以上。

    相关文章Related

    返回栏目>>

    首页   |   帮助

    Copyright © 2022-2024 GUOJI.NET.CN 国际网 版权所有
    本站所有信息均来源于互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻删除。
    京ICP备2023025604号 Power by DedeCms