10
04
OpenAI 计划推出先进的网络安全产品——仅限“可信访问”。
分类:快讯 | 时间:2026-04-10 05:45 | 关注
据OpenAI目前正在开发一款网络安全产品,并计划通过其“Trusted Access for Cyber”计划独家发布。Axios该计划此前于 2 月份宣布,旨在进行可控推广,使某些产品远离公众,仅供防御安全操作人员使用。
OpenAI 在发布其目前功能最强大的网络安全产品 GPT-5.3-Codex 后启动了该计划,并以 1000 万美元的 API 积分支持参与者的访问权限。
网络安全专家日益担忧人工智能产品功能日益强大,可能导致现有系统不堪重负,而这一消息正是在此背景下发布的。就在本周早些时候,Anthropic 公司开发的 Claude Mythos 人工智能系统就曾引发了一场恐慌。
Anthropic公司称Mythos是该公司功能最强大的AI模型,结果证明并非如此。如此有效该公司发现安全漏洞,并决定只允许精心挑选的一组组织访问这些漏洞。
据OpenAI 现在也在做类似的事情。
Anthropic公司目前正面临一场法律诉讼,此前五角大楼将该公司列为供应链风险企业,原因是该公司拒绝解除对Claude人工智能系统在监控和自主武器应用方面的使用限制。自4月初以来,联邦机构一直在加大力度审查人工智能公司的安全协议。
截至目前,OpenAI尚未发布任何公开信息正式证实或否认这些报道。
这些限制的原因并不隐晦。Anthropic 的 Mythos Preview,泄露在正式发布之前,该模型就被发现能够识别出“数万个漏洞”,即使是经验丰富的漏洞猎手也很难找到这些漏洞。该模型被描述为“高度自主”,其推理能力堪比资深安全研究员。这种任何拥有API密钥的人都能使用的能力,正是令安全团队夜不能寐的原因。
Anthropic 的回应是“玻璃之翼计划”——一项受控访问计划,仅向经过审查的组织提供 Mythos Preview:亚马逊网络服务、苹果、博通、思科、CrowdStrike、谷歌、摩根大通、Linux 基金会、微软、英伟达、Palo Alto Networks 以及其他大约 40 家参与维护关键基础设施的公司。
OpenAI 决定对这类产品进行封闭,似乎是为了抢在监管压力之前采取行动。通过在政府机构要求之前主动限制访问权限,OpenAI 将自己定位为负责任的一方,而 Anthropic 则正遭受猛烈抨击。
这些限制措施也反映了比对某一特定模式的谨慎更深层次的原因。人格组织自身的安全报告Anthropic公司承认,用于评估人工智能是否构成严重网络风险的基准测试Cybench“已不足以充分反映当前前沿模型的能力”——因为Mythos完全通过了该测试。这款用于衡量风险的工具已不再适用于正在开发的人工智能。Anthropic公司补充说,其整体安全评估“涉及主观判断”,并且许多评估结果都存在“更根本的不确定性”。
作为其推广计划的一部分,Anthropic承诺向开源安全组织提供高达1亿美元的使用额度以及400万美元的直接捐款。OpenAI尚未宣布与其访问计划类似的承诺,但两家公司都将各自的限制性计划视为对防御性安全的净收益——其理念是,在攻击者获得更强大的工具之前将其提供给防御者,即使会限制一般访问权限,也是值得的。
人工智能前沿产业正在形成一种趋势:最强大的模型将不再以大规模产品发布的形式推出,而是更像机密研究成果一样,在达成协议后,有选择地分发给拥有相应基础设施并有意负责任地使用这些模型的机构。
温馨提示:内容仅供参考