引言:OpenAI近日推出专为网络安全设计的新模型GPT-5.4-Cyber,并公布其网络安全战略三大支柱,强调现有防护措施已足够降低风险,支持模型广泛部署。此举在竞争对手Anthropic因担忧模型被滥用而低调发布Claude Mythos Preview的背景下,凸显OpenAI对AI安全防御的信心,同时指出未来需更先进防护措施应对更强模型能力。
OpenAI于周二宣布了其网络安全战略的下一阶段,以及一款专为数字防御者设计的新模型GPT-5.4-Cyber,该消息发布之际,竞争对手Anthropic上周宣布,其新发布的Claude Mythos Preview模型目前仅进行私下发布——因为该公司表示,该模型可能被黑客和恶意行为者利用。Anthropic还宣布了一个行业联盟,包括谷歌等竞争对手,重点关注生成式人工智能领域的进步将如何影响网络安全。

OpenAI似乎在周二试图通过采取一种不那么灾难性的语调来区分其信息,同时宣传其现有的护栏和防御措施,并暗示长期需要更先进的保护措施。
“我们认为,当前使用的这类防护措施已能充分降低网络风险,足以支持当前模型的广泛部署。”该公司在博客文章中写道:“我们预计这些防护措施的版本将足以应对未来更强大的模型,而那些专门为网络安全工作训练并放宽限制的模型则需要更严格的部署和适当的控制。
从长远来看,为确保网络安全中人工智能安全性的持续充分性,我们也预计需要为未来的模型提供更广泛的防御措施,因为这些模型的能力将迅速超越当今最佳专用模型。”该公司表示,其网络安全方法已聚焦于三大支柱。
第一涉及所谓的“了解你的客户”验证系统,以实现对新模型的受控访问,尽可能广泛和“民主化”,“我们设计机制,避免武断地决定谁可以获得合法使用权,谁不能,”该公司周二写道OpenAI正在结合一种模式——与某些组织就有限发布进行合作——以及今年2月推出的名为网络安全可信访问(Trusted Access for Cyber,简称TA)的自动化系统。
声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:sales@idmakers.cn删除,任何个人或组织,需要转载可以自行与原作者联系。
