律政思|AI成为“全能代理人”:我们准备好让龙虾“做主”了吗?
律政思专栏|林咏茵
2026年初,人工智慧产业迎来一个耐人寻味的转折点。过去数年,AI更多被视为提升效率的工具,是写作助手、绘图引擎、数据分析器;然而今天,以Seedance为代表的多模态生成模型,已能以近乎零边际成本生产出影视级视频作品;以OpenClaw(俗称“龙虾”)为代表的自主智能体,则跨越应用与场景边界,能直接读写档、调用软件、执行多步骤任务。一句自然语言指令,便足以完成原本需要整个团队协作的工作。
AI成为行动主体引发争议
“一人公司”不再是概念,而是可被实践的商业形态。这种转变意味着什么?如果说上一阶段的AI是生产力工具,那么当前的AI更像是“代理人”。它不仅协助我们完成任务,还开始替我们做选择、做判断、甚至直接行动。技术红利带来前所未有的效率跃升,也同时将法律与伦理推向压力测试的边缘。当AI从辅助角色走向行动主体,我们的制度准备好了吗?
在所有法律争议中,知识产权的冲突最为尖锐。AI模型之所以能生成高质量内容,是因为在预训练阶段学习了海量文本、图像与视频。然而,这些“学习材料”往往来自受版权保护的作品。近日迪士尼起诉字节跳动的案件,正是这场矛盾的缩影。迪士尼指控
在未经授权情况下使用大量影视素材训练模型,荷里活多家影业公司随即发出联合法律警告。争议的核心问题其实非常直白:AI为了学习而进行的大规模复制,究竟是合理使用,还是构成侵权?
欧美司法实践受阻
美国司法实践在这一问题上呈现出明显分歧。有联邦地区法院认为,只要AI没有再现原作品的独创表达,而只是提炼思想或事实,便可能构成高度转化性的合理使用;也有其他地区法院判决强调,一旦AI生成内容对原作品形成市场替代,合理使用抗辩便难以成立。在AI训练相关案件尚未作出终局判决前,技术层面的转化性与经济层面的市场影响交织在一起,使裁判标准充满不确定性。
欧盟则通过Directive on Copyright in the Digital Single Market(《数字单一市场版权指令》)建立了“选择—退出”机制,原则上允许文本与数据挖掘,但允许版权拥有人以“适当方式”保留权利。然而在实践中,各成员国对何谓“适当方式”出现分歧,制度设计的统一性因此被削弱。
这种在具体适用层面出现的差异,亦反映出人工智慧相关规范在跨国治理中的协调压力。在此背景下,欧盟于2026年初宣布启动《人工智慧法》相关优化程式,以提升规则运行的一致性和弥合成员国间治理标准的差异。无论采取事后司法救济或是以事前风险规避为核心的规制模式,其背后所面临的实为同一结构性困境,即人工智慧对传统版权核心原则思想与表达二分法的根本性冲击。
AI造成损害谁承担责任?
现行版权制度建立在“人类作者”的假设之上,而AI的出现同时动摇了两端基础:一端是训练阶段的大规模复制行为,另一端是生成阶段的作者身份问题。若法律只能在全面禁止与完全放任之间摇摆,创作者与科技企业都难以获得稳定预期。真正值得思考的,也许不是单纯的侵权判定,而是是否需要建立更清晰的法定授权与补偿机制,让创作激励与技术创新在制度内部达成平衡。
如果说Seedance改变的是内容秩序,那么OpenClaw所引发的则是控制权结构的重塑。与生成模型不同,智能体能够直接接触操作系统,读写本地档,调用外部工具,甚至执行跨应用的复杂任务。这种能力带来巨大便利,也意味着必须授予其极高权限。一旦出现配置不当、恶意插件或提示词注入攻击,智能体可能在后台执行用户并未真正意图的操作,从删除重要档到外泄密钥,后果往往难以逆转。
更棘手的是责任问题。当损害发生时,应由谁承担法律责任?是开源社群中的开发者,是提供算力的云平台,是负责部署的企业,还是发出模糊指令的使用者?传统侵权法建立在明确的加害主体与因果关系之上,但在多方参与、概率输出的AI生态中,责任链条呈现出前所未有的复杂性。若无清晰的角色分工与注意义务界定,法律追责将陷入困境。
应建分级分类治理框架
面对AI风险,最不理性的选项或许是简单封杀。技术封禁固然可以暂时降低风险,却也会错失生产力跃升的机会。更可行的路径,是建立分级分类的治理框架。对于主要影响知识产权的生成模型,重点在于透明度、标识义务与可追溯机制;对于直接影响财产安全、资讯安全与系统稳定的智能体,则必须在系统设计层面设置更严格的访问控制与权限限制。尤其在涉及资金划拨、核心数据删除等不可逆操作时,应强制保留“人在回路”机制,在最终执行前由自然人进行二次确认。这并非对技术的否定,而是对人类最终决定权的制度保障。
即便如此,我们仍须承认,任何合规或监管机制都无法将风险降至零。生成式模型难以避免出现“幻觉”,智能体的决策又基于概率推算而非确定逻辑。在此背景下,引入责任保险作为补充机制,或许是一种现实选择。透过市场化的风险分摊与保费定价,可以在事故发生后为受害者提供救济,同时透过经济杠杆倒逼企业提升安全标准。这种制度设计并非替代法律,而是与之形成互补。
“敏捷治理”赋予制度弹性
在效率焦虑与技术崇拜交织的时代,人工智慧治理不应沦为计划性监管,也不应放任于市场竞逐。真正的制度智慧,在于构建一种“敏捷治理”框架:以程式公正为核心,让开发者、使用者与权利人在权责对等的环境下充分沟通。
法律不替代市场决策,也不垄断技术方向;它的角色,是确保所有利益相关者在透明、可预期的规则之中博弈与协商。人工智慧的发展,或许终将改变生产方式与社会结构,但不应动摇人类在价值判断上的最终主体地位。当决策权逐步让渡给演算法之际,制度必须清晰划定不可逾越的红线:高风险决策的人类最终控制权,必须成为法治秩序中的绝对底线。
同时,制度的更新,终究离不开人的更新。所谓“敏捷治理”,不仅是规则设计上的弹性,更是决策结构中的能力转型。当人工智慧技术日益专业化,若立法者、决策者缺乏基本的技术理解,监管便可能流于形式。能让技术评估与政策及监管安排在同一语境中有效衔接的跨界能力,或许正是人工智慧时代治理理性的关键。
AI专属规制确保人类自主性
短期而言,可以透过招募更多具备技术背景的人才担任顾问或参与政策咨询,以弥补知识落差;从长远来看,更重要的是培养并吸纳这类人才成为技术监管与公共治理的中坚力量。而对香港而言,我们不仅需要更新人工智慧治理与法律制度,更需要重新思考人才的培养模式。香港应建立更具吸引力的人才流动与发展机制,吸纳具备技术背景的人才进入公共治理与监管体系,促进技术、政策与法律之间的交叉融合,使技术理性与法治理性在制度内部形成真正的整合。
这种能力重构,亦将具体体现在各专业实务之中。以法律专业为例,未来的法律专业者或许不再只是熟悉判例与条文,更应具备对演算法逻辑、数据结构与系统风险的基本理解。唯有如此,“敏捷治理”才不致停留于理念,而能转化为具体而持续的制度能力。
倘若说北都专属法是一场空间治理的制度革新,那么AI专属规制,则可能是一场更深层的法治范式转移。它不仅关乎技术合规或监管,更关乎在智能时代,我们如何重新定义创作、责任与人类自身的角色。
这或许不是一部单一法例可以完成的工程,而是一场持续展开的制度实验。但可以确定的是,当技术已然跃迁,法律若不及时回应,秩序的裂缝只会愈发扩大。人工智慧的未来,终究不只是演算法问题,而是法治文明的下一次自我更新。真正值得深思的,不仅仅是AI是否会取代人类,而是我们在追求速度与便利的同时,如何确保责任、尊严与自主性不被悄然侵蚀,这或许才是智能时代最重要的课题。
作者林咏茵是香港教育大学国家安全与法律教育研究中心讲师,香港大学法学博士。
文章仅属作者意见,不代表香港01立场。
01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。