OpenAI 发布新规则:董事会有权阻止发布 AI 模型

来源: 巴比特2023-12-19
AI 新智界讯,当地时间 12 月 18 日,OpenAI 发布名为“准备框架”(Preparedness Framework)的新规则,旨在确保前沿人工智能模型的安全。 据悉,OpenAI 将对所有前沿模型进行评估并不断更新其“记分卡”。此外,OpenAI 还将定义触发基准安全措施的风险阈值,其规定了四个安全风险等级,只有缓解后得分在“中”或以下的模型才能部署;只有缓解后得分在“高”或以下的模型才能进一步开发。另外,OpenAI 还将针对高风险或临界(缓解前)风险级别的模型实施额外的安全措施。 值得注意的是,OpenAI 表示,“我们正在建立一个跨职能的安全咨询小组,审查所有报告,并将报告同时提交领导层和董事会。虽然领导层是决策者,但董事会拥有逆转决策的权利。” 目前,该框架还处于初始 Beta 版本。
利好利好
0
利空利空
0