
OpenAI已经更新了其“应对框架”——这是该公司用来评估AI模型安全性并确定开发和部署过程中必要安全措施的内部系统。在更新中,OpenAI表示,如果竞争对手发布了一个“高风险”系统且没有类似的保护措施,它可能会“调整”其安全要求。
这一变化反映了商业AI开发者在快速部署模型方面面临的竞争压力不断增加。有人指责OpenAI为了更快地发布模型而降低安全标准,并且未能及时提供详细的安全测试报告。上周,12名前OpenAI员工在埃隆·马斯克对OpenAI的诉讼中提交了一份简要声明,他们认为公司在完成计划中的公司重组后将被鼓励在安全方面更进一步。
或许是为了预料到批评,OpenAI声称不会轻易进行这些政策调整,而且会保持其安全措施在“更具保护性的水平”上。
“如果另一家开发前沿AI的公司发布了一个没有相似保护措施的高风险系统,我们可能会调整我们的要求,”OpenAI在周二下午发布的博文中写道。“然而,我们首先会严格确认风险形势是否实际发生变化,公开承认我们正在进行调整,评估调整是否并没有显著增加严重伤害的整体风险,并仍然保持更高水平的安全措施。”
更新后的“应对框架”也明确表示,OpenAI正在更多地依赖自动化评估来加速产品开发。该公司表示,尽管并没有完全放弃人为测试,但已建立了“日益增长的自动化评估套件”,据称可以“跟得上[更快的发布]节奏”。
有一些报告对此持反对意见。据《金融时报》称,OpenAI仅给予测试人员不到一周的时间来对即将发布的重大模型进行安全检查——与之前发布相比时间压缩。该出版物的消息来源还声称,OpenAI的许多安全测试现在是在较早版本的模型上进行,而不是在向公众发布的版本上进行。
OpenAI在声明中否认正在妥协安全性的说法。
OpenAI悄悄地减少了其安全承诺。
OpenAI的“应对框架”变更中删除的内容:
不再要求对调整过的模型进行安全测试
— Steven Adler (@sjgadler) 2025年4月15日
OpenAI框架的其他变化涉及公司根据风险分类模型的方式,包括能够隐藏其能力、规避安全措施、阻止关机甚至自我复制的模型。OpenAI表示,它现在将专注于模型是否满足“高”能力或“关键”能力的两个门槛: “具有高能力”的定义是一个模型可能“增强现有通往严重伤害的路径”。后者是指“引入前所未有的通往严重伤害的路径”的模型,该公司解释道。
“达到高能力的覆盖系统必须在部署前具有足以最小化相关严重伤害风险的保护措施,”OpenAI在其博文中写道。“达到关键能力的系统在开发过程中也需要足以最小化相关风险的安全措施。”
这些更新是OpenAI自2023年以来对“应对框架”做出的第一次更改。