4月11日,由中国电动汽车百人会研究院主办的智能电动汽车发展高层论坛(2026)在北京举行。百度副总裁石清华在演讲中表示,AI算力的重心正在从训练侧向推理侧发生历史性迁移,汽车行业正加速迈入“全量推理时代”。他认为,三大驱动力正在加速这一变革:企业内部智能化正在重塑研发、制造与营销的全链条;以自然语言描述需求、由AI自动生成代码的"氛围编程"(Vibe Coding)在2026年成为主流,AI正在定义软件开发本身;而智能座舱中由AI实时生成的个性化交互界面、多模态感知与推理等新技术,正在将推理需求直接推向每一位终端用户。
随着AI真正成为汽车标配,智能座舱与智能驾驶开始服务海量终端用户,算力需求的结构正在发生根本性逆转,从过去集中在研发阶段的一次性模型训练,转向每时每刻都在发生的实时推理。
行业数据显示,到2026年,推理带来的算力增量占比将达到三分之二,未来更将超过80%。增长速度同样惊人,根据OpenRouter最新数据测算,仅4月初一周内,全球AI大模型总调用量就达到27万亿Token,环比增长18.9%,其中中国AI大模型周调用量达12.96万亿Token,连续五周超越美国。与此同时,推理的门槛也在快速下降。斯坦福2025人工智能指数报告显示,达到GPT-3.5同等性能的推理成本在两年内下降了280倍。需求在爆发,成本在骤降,两股力量叠加,正在为AI的规模化应用铺平道路。
在企业内部,一场由智能体驱动的效率革命正在全价值链展开。某车企部署百度大模型平台后,半年内开发超过6000个智能体,覆盖集团10万以上用户,沉淀出100多个精品应用,实现了全链路效率提升。目前,这些智能体已经渗透到运营的各个环节,在研发端深度嵌入产品定义、项目管理、软件设计与测试的全生命周期,在制造端实时识别微小瑕疵并自动溯源,实现生产全链路智能化监控。
石清华强调,这些智能体不是孤立的工具,而是具备感知、决策与执行闭环能力的"AI员工",当多个智能体协同工作时,多轮推理与长上下文记忆带来的任务复杂度远超传统对话模式,持续驱动企业私有推理量的大幅增长。
AI对企业的改造不止于业务流程,更在重新定义"造软件"这件事本身。"氛围编程"Vibe Coding已成为2026年的开发标配,AI不仅能自动编写需求文档和汽车行业的流程规范与功能安全合规报告,甚至可以自动完成汽车电子控制单元的参数调校,将整体研发效率提升最高达23%。例如百度伐谋作为企业级算法自主优化引擎,通过"生成—评估—迭代"的闭环实现算法自主进化,以汽车风阻验证为例,仿真验证时间从10小时缩短至分钟级,效率提升超过600倍。这些场景的爆发,同样在大幅拉升推理算力的消耗。
推理需求的爆发式增长,既需要过硬的算力产品支撑,也需要企业在战略层面提前布局。在产品侧,百度已发布P900天池超节点,采用32卡高速全互联架构,整机柜显存达3072 GB,通信时延小于2微秒,单柜即可支撑万亿参数模型的生产级部署;即将发布的昆仑芯M100专用推理芯片,则针对大规模推理场景深度优化,目标是击穿AI落地的性价比底线。在战略侧,石清华向车企提出"储算力、建平台、治数据"三点建议,即用国产算力应对推理增量,尽早搭建大模型平台为场景落地打基础,同时构建高质量数据集、梳理业务逻辑,为AI应用做好数据准备。
当AI从改造企业内部、革新生产工具,进一步走向直接服务每一位用户时,推理需求的量级和商业挑战都达到了新的高度。智能座舱正是这一转变的最前沿。多智能体协同、多模态感知、长期记忆等能力正在让座舱从被动响应走向主动认知,但也带来了一个值得全行业关注的商业悖论:车企长期习惯按BOM(整车零部件成本)来核算一切,每个零部件装上车就不再产生额外支出。但座舱AI推理不同,它的费用随用户使用量持续增长。若仍按传统的固定物料成本来看待推理费用,逻辑上就会出现功能越受欢迎、用户调用量越大、企业反而越亏损的困局。
在石清华看来,无论是座舱、智能体还是软件开发,所有场景都指向同一个核心命题:算力不应被视为研发成本,而是直接支撑用户体验和业务流的核心生产资源。企业需要通过高价值的产品服务和商业模式创新,让用户真正为"智能价值"买单,将AI能力转化为可持续的盈利点。这或许才是车企在推理时代最需要完成的一次认知转换。




0 条评论
请「登录」后评论