应对人工智能数据中心的电力挑战
时间:2024-06-24 23:07:11
国际动力署 (IEA) 的数据注解,2022 年的耗电量约占环球总用电量的 2%,达到 460 TWh 摆布。往常,加密泉币和/机械进修 (AI/ML) 等高耗能使用方兴未艾,而这些手艺中平日需求安排少量的高性能图形处置单位 ()。是以,数据中央耗电量仍将不息爬升。
野生智能使用的扩大速率使人震惊。ChatGPT 上线仅 5 天,用户数目就达到了 100 万,并在 2 个月内突破了 1 亿,这一增进速率远超于 TikTok 和 Instagram。GPT-4 锻炼包括跨越 1.7 万亿参数和 13 万亿 token,统共使用了 2.5 万个 NVIDIA A100 GPU,每台服务器的功耗约为 6.5 kW。据 OpenAI 称,GPT-4 的锻炼耗时 100 天,损耗动力约 50 GWh,耗资 1 亿美圆。
在以后环境中,咱们很难正确估量将来耗电情形,此中为支撑野生智能而安排的 GPU 损耗了大部分电力。国际动力署激进展望,到 2026 年,数据中央的耗电量将至多达到 650 TWh,以至大概跨越 1,000 TWh。
野生智能数据中央的架构演化
晚期数据中央将电网电压集合转换为 12V,而后经由过程总线将电力传输至服务器,再经由过程逻辑电平转换器将电压转换为 3.3/5V。然而功率需要不息晋升,这类供电要领的电能消耗变得弗成接收。是以,母线电压被提高到 48V,电流减小到本来的 1/4,消耗下降到了本来的 1/16。
而今朝处理器电压进一步下降,从 3.3V 降到了低于 1V 的亚伏特级别,此时就需要应用多条功率相对于较高的电压轨。这进而催生了两级电压转换计划。该计划应用 DC-DC 转换器作为旁边总线转换器 (IBC),先将 48V 电压转换为 12V 的部分总线电压,然后再将此转换为所需的低电压。
图 1:典范服务器电源架构 – 旁边总线
野生智能数据中央需求高能效电源转换
功率消耗带来了两重挑衅,不但会造成动力浪掷、增添运营本钱,并且会发生少量热量,进而需占用更大空间、损耗更多本钱。运营超大范围野生智能数据中央时,机架功率需要为 120 kW。将电网电力转换为 所用电压的能效约为 88%,这意味着会发生约莫 15 kW 废热,并需求经由过程液冷手艺举行无效散热。
在服务器电源设想中,能效和功率密度是两个首要观点,两者相辅相成。咱们必需尽量高效地将来自电网的能量转换为实用功率,缩小消耗。为此,电源拓扑不息演化,业界开发了同步整流等手艺,并在整流器中接纳 MOSFET 庖代了消耗较大的二极管。
改良拓扑布局只胜利了一半。为了优化能效,还必须尽量进步所有元器件的能效,尤其是对转换进程相当首要的 MOSFET。
MOSFET 并不是无消耗器件,在导通和开关过程当中也会发生消耗。跟着服务器电源不息进步运转频次以减少尺寸,开关消耗成为了优化的重点。
高效 PowerTrench® MOSFET
安森美 (onsemi)的中高压 T10 PowerTrench®MOSFET采用了新型屏障栅极沟槽手艺,降低了开关消耗和导通消耗,并进而显著降低了其 Qg,RDS(ON) 也降至 1mOhm 如下。此中的进步前辈软复原体二极管缓解了振铃、过冲和噪声题目,同时降低了 Qrr 消耗,为倏地开关使用找到了性能与复原时候的平衡点。
与晚期器件相比,这些新型 MOSFET 可以使开关消耗下降高达 50%,并使导通消耗下降 30% 以上。
图 2:PowerTrench® T10 MOSFET 的上风
安森美新型 40V和 80V T10 PowerTrench 器件的 RDS(on) 体现卓越。NTMFWS1D5N08X(80 V、1.43 mΩ、5 妹妹 x 6 妹妹 SO8-FL 封装)和NTTFSSCH1D3N04XL(40 V、1.3 mΩ、3.3 妹妹 x 3.3 妹妹 源极向下双散热封装)拥有优秀的质量因数 (FOM),是电源供应器(PSU) 和旁边总线转换器使用的现实抉择。T10 PowerTrenchMOSFET 吻合严峻的 Open Rack V3 能效规范,即能效达到 97.5% 以上。