本文档反映了我们在过去两年中完善的战略,包括OpenAI内部和外部许多人的反馈。AGI的时间表仍然不确定,但我们的《宪章》将指导我们在整个人类发展过程中以人类的最大利益为出发点。

OpenAI的使命是确保通用人工智能(AGI)——我们指的是在最具经济价值的工作中超越人类的高度自主系统——造福全人类。我们将尝试直接建立安全有益的AGI,但如果我们的工作有助于其他人实现这一结果,我们也会认为我们的使命已经完成。为此,我们致力于以下原则:

广泛分布的好处

我们承诺利用我们对AGI部署的任何影响力,确保其用于造福所有人,并避免使用人工智能或AGI伤害人类或过度集中权力。

我们的首要信托义务是对人类。我们预计需要调集大量资源来完成我们的使命,但我们将始终努力采取行动,最大限度地减少员工和利益相关者之间可能损害广泛利益的利益冲突。

长期安全

我们致力于进行使AGI安全所需的研究,并推动人工智能社区广泛采用此类研究。

我们担心后期AGI发展成为一场没有时间采取足够安全预防措施的竞争性比赛。因此,如果一个价值观一致、安全意识强的项目在我们之前接近构建AGI,我们承诺停止与该项目竞争,并开始协助该项目。我们将根据具体情况制定协议,但一个典型的触发条件可能是“未来两年成功的几率甚至更大”

技术领导力

为了有效应对AGI对社会的影响,OpenAI必须处于人工智能能力的前沿——仅凭政策和安全宣传是不够的。

我们相信,在AGI之前,人工智能将产生广泛的社会影响,我们将努力在与我们的使命和专业知识直接一致的领域发挥领导作用。

我们将积极与其他研究和政策机构合作;我们寻求建立一个全球社会,共同应对AGI的全球挑战。

我们致力于提供公共产品,帮助社会走上AGI之路。如今,这包括发布我们的大部分人工智能研究,但我们预计,安全和安保问题将在未来减少我们的传统发布,同时增加共享安全、政策和标准研究的重要性。

点赞(4) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部