品玩

科技创新者的每日必读

打开APP
关闭

OpenAI心理健康安全负责人Andrea Vallone加盟Anthropic

4小时前

品玩1月19日讯,据 The Verge 报道,OpenAI前“模型政策”研究负责人Andrea Vallone正式加入Anthropic对齐(Alignment)团队,聚焦AI系统在心理健康等敏感场景下的行为规范。Vallone在OpenAI任职三年,主导GPT-4与GPT-5的安全部署,并参与设计“基于规则的奖励”等主流安全训练方法。

她将向Jan Leike汇报工作。Leike于2024年5月离开OpenAI,曾公开批评公司“安全文化让位于产品光鲜度”。过去一年,多起用户因与AI长期倾诉后发生自杀或暴力事件,引发诉讼及美国参议院听证,凸显情感安全机制的紧迫性。

Vallone表示,期待通过微调与对齐技术,在新情境下塑造Claude的行为。Anthropic对齐团队负责人Sam Bowman称,公司正严肃对待“AI应如何行为”这一核心问题。

取消 发布

下载品玩App,比99.9%的人更先知道关于「Anthropic」的新故事

下载品玩App

比99.9%的人更先知道关于「Anthropic」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测