“攻击者并不需要做到99.9999%的准确率,但防御者必须做到。” —— Ethan Seow
生成式AI(GenAI)迅速成为企业技术界最热议的创新话题,但它在网络安全领域的整合已经显示出高度复杂且发展不均衡的局面。在2025年“数字领导力网络研讨会峰会”上,Practical Cyber与Cyber Intel Training的CEO Ethan Seow发表主旨演讲时指出:每一个强大的GenAI用例背后,都有同等甚至更大的风险被攻击者所利用。
Ethan曾于2023年被ISC2评为亚太地区网络安全新星(APAC Rising Star),他拥有精神病学背景,后转型进入网络安全教育和创业领域,在新加坡、马来西亚和美国与数百位学员及全球专家合作,视角独特、跨学科背景明显。
在演讲中,他直言不讳地指出:组织不仅对GenAI驱动的威胁准备不足,甚至在未理解相关风险的情况下就开始部署这些工具。
攻击者的完美工具,防御者的脆弱武器
Ethan首先重新定义了GenAI在真实世界攻击中的使用方式。随着像LLaMA、DeepSeek等开源模型可轻松下载和修改,攻击者正快速将GenAI整合进恶意软件开发和社交工程攻击中。一个令人震惊的趋势是:某些恶意软件在攻击过程中,会调用ChatGPT或Claude来实时生成新的恶意代码版本。
社交工程手法也在演变。如今的钓鱼邮件不再充斥语法错误或千篇一律的措辞,而是由GenAI生成的、具备上下文逻辑且高度定制化的信息,难以识别。根据Perception Point发布的《2024年度报告》,自2022年以来,社交工程攻击增长了1760%。Ethan引用这一数据,强调对手的演化速度远超预期。
“在这样的环境中,做攻击者比做防御者更容易,”Ethan解释道。“攻击者可以反复试错,但防御者没有这种奢侈。”
网络安全人才的大地震
GenAI带来的另一个意外后果是网络安全岗位的流失。微软等大型企业已经裁撤了大量网络安全团队岗位,寄希望于GenAI取代某些功能。但Ethan认为这种做法过于短视。
“在我们尚未解决网络安全人才短缺的背景下,GenAI正在优先替代入门级岗位。”他说,“这意味着越来越少的人能够积累基础经验,未来网络安全专家的人才池正在萎缩。”
更令人担忧的是,许多网络安全专业人士仍不熟悉大型语言模型(LLM)的工作原理。即便是技术团队,GenAI素养依然偏低,加之被取代的恐惧,进一步抑制了技能提升。Ethan呼吁组织应将GenAI视为需要深度再教育的能力,而非追求效率的捷径。
GenAI整合:尚未成熟,且存在安全隐患
尽管前景广阔,Ethan警告称,大多数企业尚未为大规模整合GenAI做好准备。他援引兰德公司(RAND Corporation)的研究指出,AI项目失败的五大原因包括:问题定义错误、数据质量差、基础设施薄弱、技术尚不成熟,以及期望值过高。
他特别提到,如果GenAI工具(尤其是聊天机器人)部署不当,容易遭遇提示注入(prompt injection)攻击,导致数据泄露或未授权访问。
Ethan还引用了Gartner报告中的观点:企业不应把GenAI当作“万灵药”。缺乏明确用例和安全机制的集成,不但无助于发展,反而可能带来更多风险。
软件开发提速,安全成熟度却落后
Ethan指出,GenAI在软件工程领域的应用价值最大。Google在2024年末透露,其代码库中已有超过25%的代码由AI生成。在熟练开发人员手中,过去需要6个月完成的工作,如今可能在一天内完成。
但他同时警告,这种速度往往是以牺牲安全为代价的。使用GenAI的快速开发流程通常会跳过威胁建模、合规检查和架构审查。结果就是:代码虽然上线更快,但潜在漏洞也随之增加。
数字领导者现在必须采取的行动
Ethan在演讲最后向数字领导者提出三项呼吁:
- 理解GenAI —— 了解其工作原理、局限性以及如何审查其输出内容。
- 培养批判性思维 —— 不要盲目接受GenAI的产出,必须严格验证。
- 警惕炒作陷阱 —— 明确GenAI真正能创造价值的场景,避免被噱头误导。
他强调,GenAI既不是救世主,也不是罪魁祸首——它只是一个工具。而任何强大的工具,都需要有能力的操作者和审慎的部署方式。
“我们现在正处在GenAI的早期互联网阶段,”Ethan总结道。“炒作终将平息,真正重要的是:你的组织是否正在建设可持续的能力,还是仅仅在追逐潮流。”
编者按:
本文报道的是Practical Cyber的CEO及Centre for AI Leadership联合创始人Ethan Seow,在“2025数字领导力网络研讨会峰会”上发表的主题演讲《生成式AI时代的网络安全》。
Read the English article here.