港大经管|人工智能威胁网络安全 香港如何应对?

撰文: 01论坛
出版:更新:

香港经济政策绿皮书2026|周昭泷教授

对不少企业和机构而言,数码基建与数据正逐渐成为重要资产。数码基建涵盖硬体(伺服器、数据中心、互联网设备)、云端服务,以及支援数码活动的软件平台。数据可能包括客户的个人资料与企业的内部资料;若这些基础设施发生故障或资料外泄,可能导致巨额财务损失。

香港网络安全事故频发

香港的公私营机构一直受网络安全事故影响。根据2020至2025年公开报告的案例,网络安全事故的频率、强度与复杂性持续上升。近期重大事故包括2025年9月针对某连锁便利店的网络攻击,导致超过400间零售店的电子支付系统中断,以及某奢华时装品牌的资料外泄,影响超过40万人。这些事故凸显了商业活动与消费者资料在保安漏洞下的脆弱性。此外,还有多宗针对非政府及文化机构的勒索软件攻击,显示技术资源有限的民间团体已成为其中一个主要的攻击目标。

同时,个人资料私隐专员公署报告显示,数个政府机构涉及资料外泄或资料设计缺陷,影响数千人。数字政策办公室及政府资讯科技总监办公室亦指出,近年政府机构发生多宗勒索软件事故。虽然当局声称未有敏感资料外泄,但这类事故重复发生,显示公共部门需强化网络安全措施。网络安全已成为一项必须多加关注的重要管治议题。近期事故凸显公私营界别因系统设计缺陷或人为疏忽而面临持续风险。公私营机构必须加强抵御网络安全事故,并采取适当措施做好准备,以提升问责性并减低财务与声誉威胁。

近期生成式人工智能的使用激增;这类系统能生成类似人类制作的文字、程式码、图像与音讯,带来前所未有的生产力与创新机会。然而,这项革命性技术同时也是一把威力强大的双刃剑,正在影响网络安全威胁。对于像香港如此高度集中且依赖数码科技的城市而言,亟须以策略性方式,紧急应对生成式人工智能的快速使用与网络风险的交集。

生成式人工智能时代的主要网络安全威胁

生成式人工智能驱动的网络安全威胁,主要特征在于高效率、低执行成本,以及前所未有的能力来绕过人工与自动化的保安过滤机制。这些威胁可分为两大领域:用于心理操控的语言模型武器化,以及先进恶意程式码的大众化。

社交工程与深伪技术武器化

生成式人工智能能够产出高度情境化且语言上极为精准的内容,这种能力从根本上扩大了社交工程攻击的规模与效能,使其超越一般滥发讯息,进化为高度针对性的欺诈行为。传统钓鱼攻击通常可透过语法错误、外语习惯用语或过于广泛的要求来识别,生成式人工智能却消除了这些警示信号。攻击者目前可以利用大型语言模型分析大量公开的企业与个人资料,例如网上个人档案、新闻稿和社交媒体贴文,以构建高度个人化的电子邮件与讯息。

对私人企业而言,尤其是金融机构与律师事务所,这意味着攻击手法更加精密。生成式人工智能能够模仿高层同事或客户的语气、方言及沟通模式,而令要求汇款、资料披露或凭证窃取的讯息看似真实可信。香港的钓鱼攻击事故数量已显著上升,未来更可能进一步激增,且攻击手法将与正常沟通几乎无法区分,从而削弱人类判断作为主要保安防线的可靠性。

在生成式人工智能驱动的社交工程威胁中,最令人关注的其中一项是深伪技术武器化,亦即足以逼真复制特定个人的合成媒体(影片、音讯或图像)。2024年1月,香港发生一宗全球广为报道的事故:某跨国公司员工与利用深伪技术制作的公司财务总监及其他同事“复制影像”进行视像会议,其后被骗汇款约2亿港元。此一事故凸显公私营界别几项关键漏洞。深伪技术能绕过传统的人为与技术核实身分程序(如视像通话、针对高额交易的语音认证),并利用机构对高层管理人员或政府官员的信任与尊重,尤其是在高压的财务或敏感决策情境中。随着生成式人工智能工具变得更廉价且易于取得,制作高品质、逼真的深伪内容不再仅限于资源充足的攻击者,而是全球其他犯罪集团也能轻易使用,更便于向公共与私人机构员工下手。

先进恶意软件大众化

生成式人工智能正迅速降低进行精密网络犯罪所需的技术门槛,将复杂的攻击方法转化为可轻易取得的服务。攻击者已开始使用生成式人工智能模型,有时甚至专门以恶意数据集进行训练,例如WormGPT和DarkBard,从而生成恶意程式码。这些工具便于制作多形变种恶意软件,此类程式码能在每次实例或执行时自动改变其结构与特征。这种能力使恶意载荷能够避开传统的、基于特征码的防毒与保安系统,许多机构仍然沿用这些系统作为核心防御机制。此现象对公共部门的营运韧性构成威胁,尤其是在管理关键基础设施时,稳定性与持续性至关重要。攻击者即使技术能力相对较低,亦足以对控制交通、能源分配及公共医疗的系统发动攻击。

大型语言模型特有的漏洞与资料外泄

除了利用生成式人工智能制造外部威胁外,在内部配置或使用大型语言模型的机构也面临模型本身的固有风险。其中一个模型特有的漏洞是提示注入攻击(prompt injection),即攻击者可借以操纵提示词或其他模型输入,劫持模型的目标,使其泄露敏感资讯、生成恶意程式码,或执行未经授权的操作。攻击者还可能在专有模型的训练数据集中微妙地加以破坏,导致模型在部署后出现偏差、受损或可被利用的行为。

另一个使用大型语言模型的即时风险,就是资料外泄。员工工作时使用公共生成式人工智能工具(例如总结文件或为程式码“除虫”),可能会上传机密或敏感资料,这些资料随后或会被用于优化大型语言模型,有机会将机密或用户私隐泄露给第三方供应商。一项调查显示,香港仅有少数企业已制定人工智能安全政策,足见有关风险的严重性。

有关全面网络防御的建议

根据上述分析,我们提出三大加强香港网络安全的建议。

运用人工智能进行网络防御

我们必须善用人工智能与机器学习,以打击由生成式人工智能驱动的网络安全威胁。政府与私营界别应协力投资,使用专门设计用于实时威胁侦测与法证分析的机器学习与人工智能工具。这些工具必须能够分析行为异常和识别可绕过保安系统的复杂威胁。政府同时应提供资助,以鼓励和支持利用人工智能进行网络安全防御的研究。

政府亦应考虑强制或提供诱因,推动特别在涉及关键基础设施、高度金融风险、特权存取或政府与商业环境中的敏感通讯时,使用生物特征识别及深伪检测技术。基于生物特征的深伪检测系统可设计用来识别深伪影片或音讯验证,从而应对深伪技术带来的主要风险。

此外,自然语言处理与生成式人工智能可用作开发专为分析通讯内容(如电子邮件、聊天讯息)而设的保安工具,透过检测特定风格或特征,辨别是否生成式人工智能制作的针对性钓鱼攻击。

防止生成式人工智能资料外泄与威胁

政府必须在公私营界别推广如何有责任地使用生成式人工智能模型,确保其安全,避免成为资料外泄的源头。由于用于训练与微调内部大型语言模型的资料可能成为攻击与外泄的途径,因此当进行内部模型训练时,应优先使用匿名化的数据,以降低投毒攻击与资料外泄的风险。此外,资料外泄防护模组可直接集成至所有生成式人工智能介面与流程中,这些模组应自动屏蔽或拒绝任何可识别的个人资讯或机密资料,以免有关资料被输入至外部大型语言模型服务。

同时,使用生成式人工智能与大型语言模型必须遵循安全软件开发的最高标准。在配置任何高风险的生成式人工智能模型前,必须进行强制性对抗测试,其中涉及模拟攻击,包括提示注入攻击、资料投毒,以及尝试提取训练中的敏感资料,以便主动识别并修补漏洞。机构应使用持续监控工具追踪模型的效能与输出完整性,若模型效能或合规性随时间下降,就可能表示存在隐蔽的持续性对抗攻击或非故意偏差,需立即进行人为干预与重新校准。政府应在公私营界别中积极推广这些做法并提供诱因。

培训与意识提升

由于生成式人工智能工具易于取得,许多员工可能倾向使用公开可用的软件,而非雇主所批准的。因此,机构必须制定明确政策,规范哪些任务可以使用生成式人工智能工具、哪些工具可以使用,以及可以提供什么资料给这些工具。

此外,由于大多数成功的网络攻击都利用人类弱点,强制且持续的培训至关重要。培训须聚焦于最新的安全威胁,例如辨识深伪媒体及识别高度个人化的网络钓鱼攻击。同时,机构还需进行有系统的员工培训,使员工了解以负责任且合乎道德的方式使用生成式人工智能工具的必要,以及不当使用这些工具的相关风险(例如将机密资料输入公共大型语言模型的显著危险)。

各机构都必须培养互相支援的文化,使员工能够在有安全感和信心的情况下,报告可疑活动或意外资料外泄,而不必担心遭受惩罚。这有助员工从安全隐患变为防御前线。

值得注意的是,香港不少机构(尤其是中小型企业及非政府组织)缺乏资源来进行此类培训与实施安全措施。政府应考虑提供协助,包括举办培训工作坊及提供专注于生成式人工智能与网络安全的资助。

(香港大学经管学院1月发表《香港经济政策绿皮书2026》,由港大教授和研究人员,以及多位国际知名学者共同撰写,就多个香港热门议题作出研究分析,并从崭新角度给予政策建议。《香港01》获授权转载。)

作者周昭泷教授是港大经管学院创新及资讯管理学教授。

文章仅属作者意见,不代表香港01立场。

01论坛欢迎投稿。请电邮至01view@hk01.com,附上作者真实姓名、自我简介及联络方法。若不适用,恕不另行通知。香港01保留最终编辑权。