这个被大模型席卷的时代,我们一直在问:AI 到底什么时候能真正像一名黑客一样思考?
答案可能比我们预想的更近。
近期,OpenAI 发出了一项令人瞩目的预警:其正在筹备的人工智能模型即将触及网络安全风险的“高(High)”等级。这意味着,AI 不再仅仅是辅助写脚本的工具,它正演变为具备双重用途(Dual-use)的超级引擎——既能构筑铜墙铁壁,也能制造前所未有的自动化威胁。
更有内部数据显示,新一代模型在 CTF(夺旗赛)中的表现已出现质的飞跃。当 AI 开始通过图灵测试的“黑客版”,作为防守方的我们,准备好了吗?
OpenAI 的这一警告并非空穴来风。根据其内部“准备框架(Preparedness Framework)”,“高”风险等级仅次于“严重(Critical)”,意味着模型可能具备开发可用的零日漏洞(Zero-day)远程利用代码,甚至能够有意义地协助进行复杂的、隐蔽的企业级或工业级入侵行动。
最让安全圈震惊的是其能力的进化速度。据报道,OpenAI 的内部测试显示:
这种指数级的增长,核心驱动力在于“Agentic AI(代理型AI)”能力的提升。OpenAI 研究员 Fouad Matin 指出,这背后的关键在于“模型长时间持续工作的能力”。换句话说,AI 不再是问一句答一句,而是能够像人类黑客一样,不知疲倦地进行长时间的自主操作、试错和暴力破解。
技术永远是中立的,关键在于谁掌握了它。
OpenAI 并不避讳这种风险。早在今年6月,他们就发布了关于生物武器风险的类似警告。而在网络安全领域,攻防本同源。OpenAI 正在采取一系列措施,试图将这种强大的能力引导至防御端,旨在为经常“以寡敌众、资源匮乏”的防御者提供不对称优势。
防御侧的三大重磅布局:
自动化漏洞修复专家 Aardvark:
目前处于内测阶段的 Aardvark 是一款代理型安全研究工具。它不仅能扫描代码库,还能通过对整个代码库的逻辑推理,发现传统工具难以识别的新型 CVE,并自动提出补丁建议。OpenAI 计划未来向部分非商业开源项目免费提供此覆盖,以加固开源生态链。
可信访问计划(Trusted Access Program):
针对网络防御领域的合格用户和客户,OpenAI 将探索分层访问机制。让防御者能优先使用模型的高级功能进行代码审计、威胁情报分析等工作,同时通过权限控制限制恶意滥用。
前沿风险委员会(Frontier Risk Council):
这是一个由资深网络防御者和安全从业者组成的顾问小组,他们将直接参与定义“有用的防御能力”与“潜在滥用”之间的界限。
面对“AI 黑客”的崛起,我们是否应该恐慌?
Recorded Future 的威胁情报分析师 Allan Liska 给出了更为冷静的看法。他在邮件中表示:“虽然 AI 确实因为能力提升和针对护栏的攻击而增加了安全风险,但不要过度炒作这些威胁。”
Liska 指出,尽管国家级黑客和网络犯罪分子对 AI 的兴趣日益浓厚,但目前的威胁并没有超过遵循最佳安全实践(Best Practices)的企业所能防御的范畴。
换句话说,基础的安全基线(Patching, MFA, Segmentation)依然是目前最有效的防线。
OpenAI 的这次预警,实际上是向全行业释放了一个信号:网络安全的“自动化战争”时代正在加速到来。
对于我们每一个从业者而言,这既是挑战也是机遇。
未来,不会是 AI 取代安全工程师,而是“会用 AI 的安全工程师”取代“不会用 AI 的安全工程师”。