来稿|香港如何在AI时代建立可信监管?普通法制度下的治理思考

撰文: 01论坛
出版:更新:

来稿作者:中傲

人工智能技术的迅速发展,正逐步改变全球经济结构、法律制度与社会运作模式。从生成式人工智能到具备自主任务规划能力的 AI Agent,技术演进不仅提升产业效率,也对既有制度框架提出新的问题。

香港特区政府在《2025年施政报告》中明确提出推动人工智能与数据科学产业发展,并透过人工智能研发院、创新研发平台以及政策配套逐步建立 AI 产业生态。这一政策方向显示香港正积极把握第四次工业革命带来的机遇,同时亦需要同步思考相应的治理与法律制度。

全球主要经济体近年亦逐步建立人工智能监管框架。例如,欧盟推出《人工智慧法案》(EU AI Act),以风险分级方式规范不同类型 AI 系统;英国采取原则导向监管模式,强调在促进创新与防范风险之间取得平衡;新加坡透过 AI Verify 等治理工具推动可信 AI;加拿大与澳大利亚亦在高风险 AI 及企业治理方面逐步建立制度。

在此背景下,香港若要在 AI 时代保持国际竞争力,关键问题并不仅是“是否需要监管”,而是如何在普通法制度下建立一套既能促进创新,又能维持公共信任的治理框架。

国际经验:不同制度模式的启示

目前全球 AI 治理模式大致呈现三种方向。

第一种是以欧盟为代表的风险分级监管模式。

EU AI Act 将 AI 系统分为不同风险级别,并对高风险应用设立严格合规要求。例如在医疗、招聘或金融信贷评估等领域,AI 系统须符合透明度、数据治理及人类监督等要求。此模式在法律上具有高度清晰性,但亦可能增加企业合规成本。

第二种是英国采取的原则导向监管模式。

英国政府在 AI Regulation White Paper 中提出,由既有监管机构依照共同原则对 AI 应用进行监管,包括安全性、透明度、公平性及问责性。这种模式保留普通法制度的灵活性,使监管能随技术发展逐步演进。

第三种则是新加坡的治理工具导向模式。

新加坡推出 Model AI Governance Framework 及 AI Verify 平台,使企业在部署 AI 前能透过测试工具评估系统可靠性与风险水平,从而提升企业对 AI 应用的信心。

从制度设计角度观察,没有任何单一模式能完全解决 AI 治理问题。真正有效的治理框架,往往需要结合不同制度的优势。

香港条件:普通法与国际制度的交汇

香港在 AI 治理方面具备若干独特条件。

首先,香港是全球少数同时具备普通法制度、国际金融中心地位及高度国际化法律服务市场的城市。普通法制度以案例演进及原则导向著称,在面对快速变化的科技领域时,往往能保持法律弹性。

其次,香港正进一步强化其作为国际法律及争议解决中心的定位。国际调解院(International Organization for Mediation, IOMed)总部已落户香港,其法律基础来自多边国际条约,并以《联合国宪章》所倡导的和平解决争端原则为依据。

在人工智能跨境应用日益普遍的情况下,AI 相关争议很可能成为未来国际商业争议的重要类型。例如算法决策责任、AI 模型授权与数据使用、平台治理以及 AI Agent 的行为责任等问题,都可能涉及不同法域之间的制度协调。

在此情况下,具有国际公信力的争议解决机制将愈发重要。

AI Agent:人工智能治理的新课题

人工智能技术近年的另一个重要发展,是 AI Agent 的出现。

与传统 AI 系统不同,AI Agent 不仅能生成内容,还能自主规划任务、调用外部工具并执行多步操作。在某些情况下,AI Agent 甚至可以代表企业或个人完成决策或交易。

这种技术形态为法律制度带来新的问题。例如:

当 AI Agent 在金融交易中作出错误判断时,责任应由开发者、部署者还是使用者承担;

若 AI Agent 在医疗或法律场景中提供建议,其法律责任应如何界定;

在跨境应用情况下,AI Agent 的行为责任又应由哪一法域处理。

目前全球多数 AI 法规仍集中于 AI 系统本身,而对 AI Agent 的治理仍处于探索阶段。因此,AI Agent 很可能成为未来 AI 治理的重要焦点。

实务案例:AI正在重塑专业制度

人工智能已在多个行业产生实际影响。

在金融领域,AI 已被用于算法交易、风险管理及反洗钱监测,部分金融机构亦开始测试 AI Agent 协助分析市场数据并提供交易建议。

在医疗领域,AI 系统可协助医生分析医疗影像或预测疾病风险。然而,当 AI 建议与医生判断出现差异时,如何确定责任仍然是一个制度问题。

在法律与专业服务领域,AI 正被用于文件审查、合约分析及合规监测。这些应用虽能提升效率,但亦引发关于专业责任与法律判断权的讨论。

这些案例显示,AI 不仅是一项技术工具,更逐渐成为影响制度运作的重要因素。

可能方向:香港版AI治理混合模式

综合国际经验,香港可考虑逐步建立一套具有本地特色的 AI 治理模式。

在制度逻辑上,可借鉴英国普通法监管思维,以原则导向方式保持制度灵活性;在治理工具上,可吸收新加坡经验,引入 AI 测试与验证机制;在风险分类方面,可参考欧盟 AI Act 的风险分级模式;在高风险责任制度上,可结合加拿大与澳大利亚的企业治理框架。

在此基础上,香港可逐步建立一套以绿线、黄线、红线为核心的 AI 风险治理框架。

绿线应用主要为低风险 AI,例如行政辅助、翻译及资料整理,应鼓励创新并保持监管简化。黄线应用涉及金融、医疗、招聘评估等敏感场景,应加强透明度与人类覆核机制。红线应用则包括严重侵犯人权或危害公共安全的 AI 用途,应予以明确禁止。

这种模式既能保持制度清晰,也能避免过度监管。

AI时代的国际调解角色

随着 AI 技术跨境应用的增加,争议解决机制的重要性亦会逐步提升。

在此背景下,国际调解院(IOMed)未来或可在三方面发挥作用:

第一,作为 AI 跨境商业争议的调解平台;

第二,促进不同法域之间 AI 合规制度的对接;

第三,逐步形成 AI 争议解决的实务指引与示范规则。

若这些制度逐步发展,香港在全球 AI 治理中的角色亦可能从技术应用中心,延伸至制度与法律层面的重要平台。

人工智能的发展不仅是一项科技进步,更是一项制度挑战。

促进创新与防范风险的平衡

香港目前正处于人工智能产业发展的重要阶段。如何在促进创新与防范风险之间取得平衡,将成为未来制度设计的重要课题。

从国际经验来看,成功的 AI 治理模式往往不是单一制度,而是多种制度元素的结合。

对香港而言,普通法制度、国际金融中心地位以及国际调解院的落户,为其提供了一个具有特色的制度基础。

在人工智能逐步成为全球经济与社会运作核心技术的背景下,治理制度的成熟与否,往往不取决于监管的严格程度,而取决于制度是否能在创新、信任与法律责任之间维持长期稳定的平衡。

若香港能在普通法传统与国际制度合作之间持续探索并逐步形成具有自身特色的治理模式,其在全球人工智能发展格局中的角色,或许将不仅限于技术应用者,更可能成为制度对话与规则演进的重要参与者。

作者笔名中傲,从事国际金融合规及策略政策研究,并提供国际金融法规相关专业服务。

文章仅属作者意见,不代表香港01立场。

01论坛欢迎投稿。请电邮至01view@hk01.com,附上作者真实姓名、自我简介及联络方法。若不适用,恕不另行通知。香港01保留最终编辑权。