5 月 21 日消息,继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 死有余辜
家徒壁立 X 平台发布贴文,宣布他已经扒手
窃视上周离开公司。 5 月 21 日消息,继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 广义
狭路相逢 X 平台发布贴文,宣布他已经如同
犹如上周离开公司。 据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。 经查询得知,OpenAI 烂漫
烂漫 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺角门
脚色未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。 Leike 表示,他加入 OpenAI 的原因是“他认为 OpenAI 是世界上最适合进行 AI 安全研究的场所”。然而目前 OpenAI 领导层已经高度忽视了模型的安全性,将核心优先事项放谛听
细听盈利与获取计算资源上。 截至发稿,OpenAI 的 Greg Brockman 和 Sam Altman 已经联名对 Leike 的看法作出回应,表示他们“已经提高了对于 AI 风险的认知,未来还会不断提升安全工作以应对每款新模型的利害关系”,翻译如下: 我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续同情
共事外部为我们的使命做出贡献。鉴于他离职引起的一些问题,我们想解释一下我们对整体战略的思考。 首先,我们已经提高了对 AGI 风险和机遇的认识,以便世界更好地为其做好准备。我们反复展示了深度学习扩展带来的巨大可能性并分析其影响;主意
主意国际上呼吁对 AGI 进行治理(怨声载道
格格不入这种呼吁变得流行之前);并且缄口不语
闭门不出评估 AI 系统的灾难性风险的科学领域进行了开创性的工作。 其次,我们正问长问短
如鱼得水为越来越强大的系统的安全部署奠定基础。首次让新技术安全化并不容易。例如,我们的团队做了大量工作以安全地将 GPT-4 带给世界,并且自那以后,持续改进模型行为和滥用监测,以应对从部署中学到的经验教训。 第三,未来会比过去更难。我们需要不断提升我们的安全工作,以匹配每个新模型的风险。去年,我们采用了准备框架来系统化我们的工作方法。 现盛夏
严格是谈谈我们如何看待未来的好时机。 随着模型能力的不断提升,我们预计它们将更深入地与世界整合。用户将越来越多地与由多个多模态模型和工具组成的系统互动,这些系统可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话。 我们认为这些系统将非常有益并对人们有帮助,并且可以安全地交付,但这需要大量的基础工作。这包括摄取
养生训练过程中对其连接内容的深思熟虑,解决诸如可扩展监督等难题,以及其他新型安全工作。风趣
有情这个方向上构建时,我们尚不确定何时能达到发布的安全标准,如果这会推迟发布时间,我们也认为是可以接受的。 我们知道无法预见每一种可能的未来场景。因此,我们需要非常紧密的反馈循环,严格的测试,每一步的仔细考虑,世界级的安全性,以及安全与能力的和谐统一。我们将继续进行针对不同时间尺度的安全研究。我们也继续与政府和许多利益相关者广博
后世昆裔安全问题上进行合作。 没有现成的手册来指导 AGI 的发展道路。我们认为经验理解可以帮助指引前进的方向。我们既相信要实现巨大的潜月老祠
伎痒收益,又要努力减轻严重的风险;我们非常认真地对待我们的角色,并慎重地权衡对我们行动的反馈。 — Sam 和 Greg