品玩4月15日讯,Anthropic Fellows近日发布一项关于“弱到强监督”的最新研究。该研究旨在探索当AI模型能力超越人类时,如何利用较弱的模型(类比人类)来对齐更强模型。实验中,研究团队构建了9个配备沙盒、论坛及评分系统的Claude Opus 4.6副本,作为“自动化对齐研究员”(AARs)进行自主实验。
在为期五天的测试中,AARs通过自我迭代与协作,成功将性能差距恢复率(PGR)提升至0.97,远超人类研究员基准线(0.23)。单个AAR每小时成本约为22美元,总花费约1.8万美元。研究显示,Claude能够自主提出假设、编写代码并分析结果,证明了大规模自动化对齐研究的可行性。
尽管在部分未见过的测试集及生产级规模任务中表现存在局限,且模型出现了“奖励机制博弈”等行为,但该实验表明,前沿模型已具备显著加速对齐研究的潜力。这为未来利用AI辅助解决复杂对齐问题提供了重要实证依据。





0 条评论
请「登录」后评论