北京铁皮保温_鑫诚防腐保温工程有限公司

广州不锈钢保温施工 以网强算,破局万亿模型训瓶颈——新华三超节点打造AI基础设施新范式

发布日期:2026-01-04 19:57:30|点击次数:160
铁皮保温

摘 要:面对万亿级大模型训练与理中日益凸显的通信墙与算力利用率难题,紫光股份旗下新华三集团出H3C UniPoD S80000超节点产品,基于“算力×联接”技术理念,通过Scale-up架构实现GPU全互联,卡间带宽较传统8卡服务器提升8倍,单卡理率提升80%。该方案不仅支持液冷高密部署与多品牌GPU兼容,还针对大模型训练的长稳需求,进行了软硬件协同调优。目前,该超节点已在多个大型智算项目中落地,并正向1024卡以上超大规模全互联演进,为AI大模型时代提供高能、高可靠、高能的算力底座。

关键词:新华三;超节点;AI基础设施;大模型;

案例正文:

2025年,大模型走向“技术摸高”与“工程创新”并行的新阶段,以DeepSeek为代表的高参数量MoE大模型逐渐成为业内主流。随之而来的,是市场对高能算力需求的爆发式增长。这意味着,谁能够在大模型训率上跑赢对手,谁就有可能在瞬息万变的AI时代抢得市场先机。因此,如何搭建更优、更稳、更强劲的AI算力基础设施变得尤为重要,在此背景下,算力更强、通信更快、率更高的超节点产品,成为当前算力领域受关注的技术热点。

以网强算,超节点技术带来的大模型训率跃升

在经历百模大战后的商用落地阶段,各大模型厂商在实现技术落地之外的要考量便是每Token成本。虽然目前单台服务器内已经可以基于OAM标准实现高8卡GPU的直接互联,但更大规模的算力需求下还是要依靠跨节点的Scale-out方式进行集群组网,在动辄百卡、千卡级的大模型训需求下,巨大的通信开销会造成算力利用率的大幅下降,大量GPU的等待和空转使得传统组网在整体训率表现上显得越发吃力。因此,依靠Scale-up技术实现GPU多卡全互联的超节点产品,成为破局智算率瓶颈的优解。

163鍏嶈垂閭鐧诲綍鍏ュ彛涓猴細https://mail.163.com/ 锛屾墜鏈虹増鍙€氳繃璁块棶瀹樼綉鎴栦笅杞解€滅綉鏄撻偖绠卞ぇ甯堚€滱pp鐧诲綍銆傚叿浣撶櫥褰曟柟寮忓強鍔熻兘鐗圭偣濡備笅锛?/p>缃戦〉鐗堢櫥褰曟搷浣滄楠?ul>璁块棶瀹樼綉锛氭墦寮€娴忚鍣紝鍦ㄥ湴鍧€鏍忚緭鍏ュ畼鏂圭綉鍧€ https://mail.163.com/锛岃繘鍏?63閭棣栭〉銆?/li>杈撳叆璐﹀彿瀵嗙爜锛氬湪鐧诲綍鐣岄潰杈撳叆瀹屾暣鐨勯偖绠辫处鍙峰拰瀵瑰簲鐨勫瘑鐮佷俊鎭€?/li>瀹屾垚瀹夊叏楠岃瘉锛氭牴鎹〉闈㈡彁绀哄畬鎴愬畨鍏ㄩ獙璇侊紙濡傚浘褰㈤獙璇佺爜銆佺煭淇¢獙璇佺瓑锛夛紝鐐瑰嚮鈥滅櫥褰曗€濇寜閽繘鍏ラ偖绠变富鐣岄潰銆?/li>韬唤楠岃瘉锛氶娆$櫥褰曟垨闀挎椂闂存湭浣跨敤鏃讹紝绯荤粺鍙兘瑕佹眰閫氳繃鎵嬫満绔獙璇佽韩浠斤紝鎸夋彁绀烘搷浣滃嵆鍙€?/li>鎵嬫満鐗堢櫥褰曟柟寮?ul>鎵嬫満娴忚鍣ㄧ櫥褰?/strong>锛?p>鍦ㄦ墜鏈烘祻瑙堝櫒涓闂畼鏂圭綉鍧€ https://mail.163.com/锛岀郴缁熶細鑷姩璺宠浆鑷抽€傞厤绉诲姩绔殑椤甸潰銆?/p>

杈撳叆閭璐﹀彿涓庡瘑鐮侊紝鎸夌収鎻愮ず瀹屾垚鍥惧舰楠岃瘉鐮佹垨鐭俊楠岃瘉銆?/p>

鐧诲綍鎴愬姛鍚庡彲寮€鍚偖浠舵彁閱掑姛鑳斤紝瀹炴椂鎺ユ敹鏂伴偖浠堕€氱煡銆?/p>

在万亿级参数量成为常态的当下,大模型训练阶段数据的传输量和传输频率激增,同时,张量并行、家并行等训练模式以及超长序列多模态等技术场景也对GPU之间的带宽和时延提出了高要求。基于Scale-up的节点内互联能够实现每个GPU之间的直接高速通信,相比跨节点的通信提高数倍带宽,从而大幅提升GPU利用率,减少GPU空闲;同时,超高带宽、超低时延的互联网络,能够有打破通信墙,大幅缩减以传统多机多卡方式布局训练的通信开销,真正实现以网强算。

另一方面,在大模型理阶段,为了提升GPU使用率,PD分离(Prefill-Decode分离)技术被广泛应用。然而,由于大模型逐token生成的特,在理Decode阶段,需要频繁访问KV Cache,对显存容量和带宽要求高‌。而超节点支持‌计算与存储资源独立扩展,为Prefill配置高算力节点,为Decode配置大内存节点,避免资源浪费,同时‌其多卡部署、卡间高速直联的特,能够大幅度降低理的时延,确保KV Cache快速同步‌,天然适配PD分离场景。

兼顾能与稳定,管道保温施工新华三超节点为AI提供强劲可靠的算力能

基于在ICT领域的深厚积淀,紫光股份旗下新华三集团以“算力×联接”理念为技术依托,于近期出了H3C UniPoD S80000超节点产品。作为面向万亿级参数模型训场景的超节点产品,H3C UniPoD S80000以算力芯片多元化、互联协议标准化、基础设施集成化为核心设计理念,实现了更高能、更高密度、更高率的三重进化。柜内卡间全互联通信,相比传统8卡服务器组网,卡间互联带宽提升8倍,单卡理率提升80%。同时,H3C UniPoD S80000采用液冷高密部署,单柜可支持64卡超节点部署,并兼容下一代高能AI加速卡。

在确保大模型训率的基础上,新华三超节点还深度考量了产品的稳定和可维护,在大模型训练进程中,任何一次中断都可能导致训练进度丢失、资源浪费甚至模型能退化,因此,AI基础设施不仅要考虑训练能的提升,更要确保训练连续,避免时间与金钱的双重损耗。

对此,除了通过软硬件的协同调优来保障产品上线后的长稳训练不中断,硬件本身的稳定可靠至关重要。目前,在数百卡以上的超节点规模下,通常需要引入电+光的二层网络架构,新华三也在积投入节点级的光互联技术研发和测试,在充分利用光技术带来的高速率、低延迟和低能耗优势的同时,尽可能降低光学器件一直以来的高故障率,为客户提供真正具备稳定、可靠的商用产品,保障大模型训练的长稳续航。

目前,新华三超节点产品已完成在多个大型项目的集群化部署,支持多款国内外主流GPU的兼容适配,并持续开展与上下游生态伙伴的软硬件协同开发和调优工作,积布局1024卡及以上更大规模超节点产品的研发和落地,持续提升智算集群规模和率。

AI技术持续进化,多元算力百花齐放,AI产业的繁荣依托基础设施的稳固与强劲。面向崭新的AI时代,新华三方面表示,将以超节点技术为全新路标,持续深化“算力×联接”技术理念,全面拥抱产业变革,不断构建能强劲、多元开放、持续进化的算力基础设施,以技术聚之力,加速百行百业智慧跃迁。

地址:大城县广安工业区

案例点评:

在大模型参数量激增、工程化挑战加剧的背景下,单纯堆砌算力已难以为继,系统级协同创新成为破局关键。新华三超节点以“以网强算”为核心思路,将高速互联从跨节点通信下沉至节点内全互联,有打破通信瓶颈,显著提升GPU利用率,体现了从“算力堆叠”向“算力质”转型的战略前瞻。尤为可贵的是,其在追求致能的同时,高度重视稳定与可维护,通过光互联技术预研与长稳训练保障机制,回应了产业对AI基础设施“既快又稳”的双重期待。这一实践不仅为国产智算基础设施树立了技术标杆,也为构建自主可控、高绿色的大模型生态提供了坚实支撑。

——环球趋势案例征集组委会

Powered by 北京铁皮保温_鑫诚防腐保温工程有限公司 RSS地图 HTML地图

Copyright Powered by站群系统 © 2025-2034