施耐德电气正与Nvidia Corp合作,为新的人工智能(AI)数据中心设计专用冷却系统。该合作于周三宣布,这些系统将支持Nvidia的顶级服务器,每台服务器配备72个最先进的AI芯片,计划于明年初部署。
虽然合作的财务细节尚未披露,但从分享的技术细节可以看出这次合作的重要性。
即将推出的服务器预计每机架将消耗高达132千瓦的功率,最强大的型号需要使用液体冷却。Nvidia向液体冷却转型的大部分芯片引发了一波数据中心活动,包括新建和改造现有设施以整合新技术。
施耐德电气安全电源部门高级副总裁Aparna Prabhakar强调了两家公司之间密集的工程合作,她表示:"双方都在进行艰巨的工作。"
施耐德电气负责服务器基础设施的所有外部方面,而Nvidia则专注于内部组件。
施耐德开发的冷却设计具有多功能性,可以根据Nvidia服务器的数量和各自的功率需求进行调整。这些设计旨在销售给云服务提供商和数据中心运营商。
这次合作符合施耐德电气加强AI数据中心产品的战略努力。2023年,该公司与Compass Datacenters签订了一份重要合同,同意在五年内提供价值30亿美元的电气设备。
这笔交易紧随施耐德电气上个月任命新CEO后的领导层变动。
本文由人工智能协助翻译。更多信息,请参见我们的使用条款。