人工智能正频频亮相于中国经济社会发展的核心议程。2月11日,国务院以“深化拓展‘人工智能+’、全方位赋能千行百业”为主题,进行第十八次专题学习并指出,要“建设人工智能应用中试基地”、“优化智算资源布局”、“推进软硬件适配”、“形成产业链上下游贯通发展的格局”。
这是2026年开年以来国务院首次专题学习,也是自去年8月《关于深入实施“人工智能+”行动的意见》发布后,顶层设计对“人工智能+”的又一次系统性部署。从“行动”到“深化”,从“赋能”到“全链条突破、全场景落地”,此次专题学习为人工智能的产业化进程划出了清晰的路线图。
在基础设施建设层面,算力不再是简单的硬件堆砌,而是需要系统级的架构设计与能力交付。从“建设算力”到“优化布局”,其揭示了一个关键趋势:当人工智能从试验走向规模化应用,企业对算力的需求正在发生质变——不仅要“算得快”,更要“算得稳”、“算得省”、“算得活”。
比如,从追求单一芯片性能到追求系统综合效能,算力的天花板不再由硬件单点决定,而是取决于芯片、网络、存储、软件的协同优化;从关注算力规模到关注算力效率,如何将闲置算力激活、将碎片算力整合,成为企业降本增效的关键;从自建算力中心到灵活调度多元算力,在供应链波动和技术快速迭代的背景下,保持架构的开放性与可迁移性,成为企业抵御风险的护城河。面对这些趋势,华为、阿里云、浪潮及联想等国内算力厂商正以各自的路径作答。
华为以“集群+超节点”突破算力瓶颈。其推出的昇腾384超节点并非硬件堆砌,而是通过自研的高速互联协议“灵衢”,将多个计算设备整合为拥有共享内存池的逻辑共同体,实现超大带宽、超低时延和内存统一编址。
阿里云认为在超大规模集群中,真正决定性能上限的是连接计算单元的网络,其以“HPN+UPN”双轨并进重构网络:HPN面向大规模分布式训练与推理,提供微秒级低时延和近100%带宽利用率;UPN则将光放进机柜内部,采用LPO/NPO全光互联技术,性能提升的同时成本反降30%。
浪潮以全栈智算基座保障核心技术供给。其推出的万亿参数模型训推本土智算超节点服务器CRS6000S,实现单机柜32/64张本土AI芯片的超高密度部署,卡间通信带宽提升8倍,使千亿参数大模型训练周期从月级压缩至周级。同时推出端到端开发平台inAIP,构建起可持续演进的多元全栈智算基座架构。
联想则通过“一横四纵”的布局,包括联想万全异构智算方案,以及服务器、存储、数据网络、软件及超融合,将复杂高成本的算力转化为确定性的产出。其具备“三个领先”,即调度领先、交付领先和能效领先。
首先是调度领先。当前客户最焦虑的往往不是算力不够,而是供应链的单一依赖与技术绑定的风险。联想万全异构智算平台不仅实现了对多元算力的统一纳管,更通过算子级优化与算法库深度适配,主动屏蔽底层芯片差异。这意味着,客户从此拥有“切换算力底座”的自主权,技术路线不再被捆绑,架构演进始终保持灵活。
其次是交付领先。联想于去年年底正式推出“AI工厂”解决方案,将AI的开发与部署从“手工作坊”模式转变为标准化、高效率的“生产线”。其不仅提供硬件设施,更提供包括数据采集、智能体开发、模型训练到推理服务的标准化全栈AI解决方案,使AI成为像电力一样成为可以被大规模使用的新一代基础设施,推动AI在各领域的广泛应用。
最后是能效领先。在“双碳”目标与绿色算力要求下,性能与能效必须兼顾。联想海神液冷技术散热效率达98%,并能实现90%的余热回收再利用,降低42%的能耗,数据中心PUE可降至1.1以下。
这些能力的领先,正在转化为实实在在的市场回报。联想集团最新财报数据显示,在2025/26财年第三财季,联想基础设施业务营收同比增长超过30%,创下历史新高。




0 条评论
请「登录」后评论