当下AI的应用越来越广,从日常的智能问答到大企业的数据分析、算力运算,背后都离不开AI服务器的支撑。但随着算力需求一路飙升,AI服务器也遇到了一个核心难题——耗电量太大,传统供电架构根本跟不上。
在2025深圳媒体交流会上,全球知名半导体企业罗姆深度解读了AI服务器市场的最新变化,点出当前行业的电力痛点,还指明了+800V/±400VDC高压直流架构是解决这一问题的关键。今天我们就来聊聊,AI服务器的电力难题到底有多严重,行业又为何集体选择升级到800VDC架构。
AI服务器功耗翻几倍,电力成了算力“拦路虎”
别看AI用起来方便,背后的AI服务器可是十足的“电老虎”。和我们常见的通用服务器比起来,两者的耗电量完全不是一个量级。
根据罗姆的实际调研数据,一台通用服务器的功耗大概在600W,而一台AI服务器的功耗直接冲到了3000W,是通用服务器的5倍还多。现在各大数据中心都在批量部署AI服务器,这些“电老虎”同时运行,让数据中心的电力消耗呈几何级增长,而耗电量激增带来的连锁影响,也开始全面显现:
电力损耗增加:需要能够提供低电压、高输出功率的大电流。电缆内的电阻损耗导致能源浪费和发热量增加,这意味着大量电力在传输过程中被白白消耗,不仅不划算,还会进一步加剧发热问题;
物理限制:一方面需要承载大电流的粗重铜质电缆,占用大量数据中心空间;另一方面电缆和电源插座、线缆的重量与体积大幅增加,让数据中心的空间、重量承压能力达到极限,传统架构实现100kW以上的高功率密度存在物理上的难题,电源插座、线缆等也必须彻底改进;
散热设计压力:电力消耗和功率损耗会直接转化为热能,海量AI服务器运行产生的高热量,迫使数据中心必须构建高效的液体冷却系统,否则设备易因高温宕机,而液体冷却系统的部署和运维成本也随之攀升;
可扩展性的极限:以往的架构要实现100kW以上的高功率密度存在物理上的难题,电源插座、线缆等也需要改进,无法适配未来AI服务器算力持续提升的需求,扩容难度和成本大幅增加;
运营成本增加:数据中心运营成本中近六成是电费,耗电量增加和功率损耗导致的成本上升,直接让企业的长期运营压力翻倍,电力成本成为数据中心最主要的支出项之一。
电力供应不仅关系着数据中心的运营成本,更直接影响AI算力的释放——如果供电跟不上,再强的算力也无从发挥。如何让电力更高效地支撑AI运算,成了整个行业都要解决的问题。
GPU功耗一路猛涨,传统服务器机架摸到了“天花板”
AI服务器的高功耗,核心原因在它的“心脏”——GPU(图形处理器)。作为AI运算的核心部件,GPU的功耗正以肉眼可见的速度飙升,直接让传统的服务器机架扛不住了。
从英伟达的产品发展路线就能清晰看到这个趋势:GPU的热设计功率(简单说就是芯片的功耗上限),从之前H100的700W,涨到B200的1200W、B300的1400W,未来还会突破3600W。而且为了跟上AI算力的需求,英伟达还把GPU的升级周期从两年缩短到了一年,算力提升的同时,功耗压力也跟着翻倍。
功耗飙升带来的问题一连串:传统架构要给GPU供大电流,就得用粗重的铜电缆,不仅占空间、增加数据中心的重量,还让硬件成本大幅上升;电缆传输大电流时,会因为电阻产生损耗,既浪费电能,又会发热,让数据中心的散热难题雪上加霜。
说到底,传统的低电压供电方式,已经跟不上GPU的功耗增长了,服务器机架的空间、电力承载能力都到了极限,供电架构升级已经迫在眉睫。
行业达成共识!800VDC高压架构成最优解
面对这个绕不开的电力难题,全球科技企业都在找解决办法,而+800V/±400VDC高压直流架构,成了大家公认的最优解。
这个架构的推出,背后有两大重量级阵营推动:一边是微软、Meta、谷歌等企业联合发起的开放计算项目,提出了±400VDC的标准;另一边是英伟达主导的800VDC标准,两大阵营一起定下了下一代AI服务器的供电核心方向。
为什么800VDC能解决传统架构的痛点?核心就是它有五大优势,从效率、成本、扩展性等方面全方位优化,精准破解了耗电量激增带来的各类问题:
1.扩容更轻松,从100kW到1MW无缝衔接
基于800VDC架构,数据中心不用大规模改造原有电力设施,就能实现从100kW到1MW以上的机架功率部署,完美突破传统架构的可扩展性极限,不管是现在的AI服务器,还是未来更高算力的设备,都能适配,实现无缝扩容。
2.效率更高,端到端电力利用率提升5%
和目前主流的54V供电系统比,800VDC架构的端到端效率能提升5%。别看只是5%的提升,在海量AI服务器长期运行的情况下,能大幅降低电缆电阻带来的电力损耗,减少发热量,同时省下大量电能,大幅降低数据中心的能耗成本。
3.减少铜材使用,省钱又减损耗
800VDC架构能显著降低数据中心骨干网的电流,对应的电缆就能更细,直接减少了铜材的使用量,降低硬件成本;同时电流变小,电缆的电阻损耗也会减少,从根源上缓解能源浪费和发热问题,不用再依赖超粗的铜质电缆,也解决了数据中心的空间与重量问题。
4.更可靠,破解散热与维护的麻烦
传统的服务器机架电源,为了防止停机,往往要多装备用模块,不仅占空间,还得频繁维护、更换故障模块;800VDC架构可以把功率转换模块移到机架外,从根本上解决机架内的散热难题,无需构建复杂的液体冷却系统,同时降低了运营成本中电费的占比,在成本和长期可靠性之间找到最优平衡。
5.适配未来,能支撑超高功率机架
800VDC架构从设计之初,就瞄准了未来1MW超高功率机架的需求,为后续AI算力的持续提升预留了充足的空间,不用因为算力升级再反复改造供电架构,也能轻松应对未来更高功率密度的部署需求。
明日预告电源单位迎升级,半导体厂商迎来新挑战
AI服务器向800VDC架构升级,直接带动了核心部件电源单元(PSU)的高电压化变革,这也给半导体制造商带来了新的市场需求和技术挑战。
从目前的情况来看,主流的电源单元功率是5.5kW/个,一层机架能到33kW;升级后的产品已经涨到12kW/个,一层机架72kW;而随着800VDC架构落地,下一代电源单元会全面贴合新的行业规范,朝着更高功率、更高效率、更小体积的方向发展。
这对半导体器件的要求也变得更高:需要能扛住800VDC高压、适配大电流,同时还要耗电少、开关速度快、体积小。简单说,AI服务器的供电升级,本质上是半导体技术的比拼,谁能做出适配800VDC架构的核心器件,谁就能抓住行业机遇。
后文预告
800VDC高压架构的升级浪潮已经来了,半导体厂商该如何接招?罗姆作为功率半导体领域的老牌企业,早已提前布局,不仅推出了适配800VDC20~33kW级电源单元的全套解决方案,还和头部电源厂商深度合作,甚至推出了专属的热插拔控制器产品。
接下来,我们就来详细说说,罗姆到底拿出了哪些硬核技术,破解AI服务器的供电难题,成为行业升级的核心助力!

在线留言询价
| 型号 | 品牌 | 询价 |
|---|---|---|
| CDZVT2R20B | ROHM Semiconductor | |
| MC33074DR2G | onsemi | |
| BD71847AMWV-E2 | ROHM Semiconductor | |
| TL431ACLPR | Texas Instruments | |
| RB751G-40T2R | ROHM Semiconductor |
| 型号 | 品牌 | 抢购 |
|---|---|---|
| STM32F429IGT6 | STMicroelectronics | |
| TPS63050YFFR | Texas Instruments | |
| IPZ40N04S5L4R8ATMA1 | Infineon Technologies | |
| BP3621 | ROHM Semiconductor | |
| BU33JA2MNVX-CTL | ROHM Semiconductor | |
| ESR03EZPJ151 | ROHM Semiconductor |
AMEYA360公众号二维码
识别二维码,即可关注
请输入下方图片中的验证码: