品玩

科技创新者的每日必读

打开APP
关闭

Google DeepMind 提出新方法,解决大模型答案的奉承行为

2023年8月10日

品玩8月10日讯,据 Arxiv 页面显示,一群来自 Google DeepMind  的研究者近日发表论文,公布了一项全新的研究技术,可用于提高生成式大模型回答的准确性。

研究指出,大语言模型会在一定程度上根据用户的观点来调整自己的答案,这将会影响答案的客观性和正确性。该研究团队通过对公共NLP任务进行轻量级微调,鼓励模型对用户在这些任务上的观点更加稳健。

研究显示,添加这些数据可以显著减少在回答中的奉承行为。

取消 发布

下载品玩App,比99.9%的人更先知道关于「DeepMind」的新故事

下载品玩App

比99.9%的人更先知道关于「DeepMind」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测