品玩

科技创新者的每日必读

打开APP
关闭

让AI更稳定、更会追问:千问C端应用团队ICLR 2026连中四篇论文

4小时前

当AI助手越来越多地参与到学习、工作辅助、医疗咨询等生活场景,能否稳定输出、是否懂得追问关键信息,正成为衡量AI能力的重要标准。

1月30日消息,千问C端应用团队的四篇人工智能领域研究论文入选2026国际学习表征会议(ICLR 2026),论文聚焦扩散模型训练、多轮对话决策、信息验证及模型价值观对齐等关键问题,部分成果已有实际应用,推动AI助手在复杂场景下更加聪明、可靠、实用。

ICLR与NeurIPS、ICML并称为机器学习和人工智能领域三大顶级国际会议。本届会议投稿量接近19000篇,接收率创下近年来新低。

本次四篇论文在多个前沿领域取得创新突破。在扩散语言模型(Diffusion Models)研究方面,千问C端应用团队针对dLLM独特的掩码训练不稳定性,将其系统分解为了三种不同的噪声来源,并相应提出帕累托最优的无偏训练算法。该算法显著降低了dLLM的训练波动、进而提升其图文生成质量。这意味着在内容生成、创作辅助等应用中,AI输出将更加稳定。

围绕医疗多轮对话中的复杂推理任务,团队提出了自适应树策略优化(ATPO)方法,使AI能够根据对话中的不确定性动态调整决策路径。当信息不足时,AI会主动追问关键问题;当线索清晰时,则快速给出判断。这一能力可帮助AI助手在医疗咨询等专业场景学会“主动问诊”,让AI像经验丰富的医生一样,只问最关键的问题,避免无用的来回对话。

在信息检索与验证方面,研究团队构建了“提问—解答—验证”的自博弈强化学习框架,使AI在无需人工标注的情况下不断自我验证与进化。这一机制有助于提升AI在复杂问题下的检索与核验能力,在学习辅助、研究支持等知识密集型场景中表现更为可靠。

此外,在模型价值观对齐研究中,团队引入信息论偏见消除方法,引导奖励模型关注真正与人类偏好相关的信号,减少冗长、格式化但信息密度不高的输出。这使得AI在训练过程中真正关注能够帮助到用户的核心要点,降低模型输出中出现“表面迎合但缺乏实质内容价值”的情况。

业内专家指出,当前大模型竞争正从“参数规模”转向“算法深度与工程实效”。千问C端应用团队在生成稳定性、多轮对话决策和模型对齐等方向上的系统性探索,体现了其在基础算法与应用导向研究上的持续投入。

值得一提的是,此次千问C端应用团队入选 ICLR 2026 的四篇论文相关代码均已开源。通过开放核心实现细节,将为行业在提升AI可用性、可靠性方面提供有益参考。

取消 发布

下载品玩App,比99.9%的人更先知道关于「千问」的新故事

下载品玩App

比99.9%的人更先知道关于「千问」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测