OpenAI近日推出名为Daybreak的全新网络安全计划,该计划整合前沿人工智能(AI)模型能力与Codex Security技术,旨在帮助企业在攻击者利用相同漏洞入侵前完成漏洞识别与修复。
技术架构与核心功能
这家AI新锐表示:”Daybreak融合了OpenAI模型的智能、Codex作为Agent框架的可扩展性,以及我们安全生态合作伙伴的力量,致力于为所有人构建更安全的世界。防御者可将安全代码审查、威胁建模、补丁验证、依赖项风险分析、检测和修复指导融入日常开发流程,从而从源头提升软件韧性。”
与Anthropic的Mythos类似,该方案旨在利用AI技术扭转攻防失衡态势,帮助防御方在恶意攻击者发现前检测并修复安全问题。目前该工具仍处于严格管控阶段,OpenAI建议有意向的组织申请漏洞扫描或联系其销售团队。
Daybreak通过Codex Security构建可编辑的威胁模型,聚焦真实攻击路径与高影响代码,在隔离环境中识别测试漏洞并提供修复方案。其技术基础包含三大模型:
- GPT-5.5(具备通用安全防护机制)
- 网络安全可信访问版GPT-5.5(用于授权环境下的防御验证工作)
- GPT-5.5-Cyber(允许进行红队演练、渗透测试及受控验证的宽松模型)
行业合作与部署进展
OpenAI透露,Akamai、思科、Cloudflare、CrowdStrike、Fortinet、甲骨文、Palo Alto Networks和Zscaler等企业已通过”网络安全可信访问计划”集成这些能力。该公司正与行业及政府合作伙伴协作,未来将部署”更具网络防御能力的模型”。
AI加速漏洞发现的连锁反应
随着AI工具大幅缩短潜在安全问题的发现周期,原本需要耗费大量时间的漏洞检测工作如今可在极短时间内完成,导致补丁流程即使在理想条件下也难以跟上节奏。今年3月,HackerOne因漏洞发现速度与开源维护者修复能力失衡而暂停漏洞赏金计划,指出AI辅助研究导致新缺陷数量激增且识别速度加快。
这种现象还引发所谓的”漏洞分类疲劳”——项目维护者需要筛选海量漏洞报告,其中部分内容看似合理实则完全由AI模型虚构生成。
安全新范式
当AI降低安全漏洞发现门槛之际,Anthropic、谷歌和OpenAI等公司正将AI安全Agent定位为解决修复瓶颈、保护数字基础设施的新运营层。安全研究员Himanshu Anand上周发文指出:”90天漏洞披露政策已失效”,因为大语言模型(LLM)将漏洞披露和利用时间线压缩至近乎为零。
“当10位无关研究者在六周内发现相同漏洞,而AI能在30分钟内将补丁差异转化为可用漏洞利用代码时,90天窗口期究竟在保护谁?答案是谁都保护不了。”Anand总结道。
参考来源:
OpenAI Launches Daybreak for AI-Powered Vulnerability Detection and Patch Validation