讲港AI|从“养龙虾”到“管龙虾”:搭建人机共生系统责任阶梯
人工智能的发展,正来到一个微妙的转折点。过去两年,随着生成式AI的爆发式成长,大众的焦虑主要集中在“AI是否比我聪明”这个问题上;然而接下来,随着一种可以完全自主运行的AI智能体出现,真正可能卡住AI发展瓶颈的,恐怕不再是模型的智能水平,而是“许可”(Permission)的问题。当AI从“会说话的知识库”进化为“会行动的数字代理”,它能否被允许自主行动?由谁来允许?允许的边界又在哪里?
AI代理未来已来
最近,被称为“龙虾”的开源智能体“OpenClaw”在内地技术圈迅速爆红,这并非偶然。这款框架让开发者第一次清晰看到一种令人振奋的可能性:AI不再局限于对话框里的“聊天室友”,不再是只能生成文字、图像的被动工具,而是可以自主拆解复杂任务、跨平台执行操作的“数字代理”。
你只需对电脑说一句“帮我整理上个季度的销售数据,并根据这些数据草拟一份给客户的跟进邮件,然后在日历上预约下周的会议时间”,AI便能自动打开多个软件、查询数据库、撰写内容、操作邮件系统。这不再是科幻电影的情节,而是“OpenClaw”这类框架正在实现的未来。
AI出错谁来负责
这种“动手能力”的展现确实令人振奋,但与此同时,它也立刻引发了监管层面的高度关注。“养龙虾”之所以成为热议焦点,正因为它被大模型赋予智能的“智能体”强大的执行力,赤裸裸地呈现在大家面前。它能帮你写代码、修改系统记录,甚至模拟人类的点击和输入行为,完成跨平台、跨系统的复杂操作。
然而,一旦这种能力脱离开发者精心控制的沙盒环境,进入真实的商业与社会场景,问题便随之而来:如果AI自主发出一封语气不当、可能引发公关危机的邮件,责任该由谁承担?如果它执行了一笔错误的金融转帐,甚至误解指令删除了重要文件,造成的损失又该如何追溯?
这就引出了一个核心命题:AI看似无所不能,那是它的“能力”;但在政务、医疗、金融等关键领域,它是否被授权独立运作,才是“许可”的核心。
从养到管责任机制
目前,中央网信办及相关部委已经开始密集关注“龙虾”的安全治理议题。国家的关注焦点非常明确:AI的自主性越高,潜在风险就越难以控制,尤其涉及数据跨境流动、个人隐私保护,以及自动化决策所带来的伦理与法律责任。如果缺乏一套清晰的“责任分配”机制,AI的能力越强,社会对其大规模落地的恐惧感反而越深。
因此,一个关键问题浮出水面。如果缺乏一套清晰的“责任分配”机制,AI的能力越强,社会对其大规模落地的恐惧感反而越深。这不是否定技术进步,而是提醒我们,技术的发展必须与制度的建设同步。正如我们不会让一个未经培训的实习医生独立操刀手术,我们也不应让AI在没有明确责任框架的情况下进入关键决策领域。
底线是要对AI生成的内容建立一个事实查核机制,以及对自动化操作必须保留“人为干预”的权利。这实际上就是在为AI逐步进入更高自主层级时,搭建一道道的责任围栏,确保技术创新不会脱离社会价值的轨道。
让人管虾让虾帮人
我就此提出一个“人机共生系统的责任阶梯”的概念,用来刻画AI自主权的渐进层级,以及每个层级对应的责任分配机制。我必须强调一个核心观点,在AI的发展中,“能力”并不等于“许可”。虽然现在的模型已经能推理、能规划、能调用工具,看上去已经很像“能自己工作的系统”;但当AI开始真正在真实系统中发消息、改记录、批请求时,最重要的不再是它“会不会做”,而是“责任算谁的”。
HKGAI的团队正研发一个人机共生智能体项目“ClawNet”,目的是构建“人+龙虾”的协同工作网络,它是一套而不是单纯的个人效率工具。一句话来总结,那就是“虾是虾,人是人,人管虾,虾帮人”。
“ClawNet”的特点在于确保在人的控制下进行协作,而不是无差别的自动化执行。最重要的就是“由人来管理龙虾、我的龙虾跟你的龙虾,在我们的管理下共同协作”。我们要构建的协同网络,是让机器专注在它擅长的速度和执行,而人负责判断边界、处理例外和最终签署。
培养市民AI素养
未来的社会必然是人机共存的社会。我们既需要“龙虾”这种勇于推动技术边界的开源力量,持续拓展AI能力的疆域;同时也迫切需要一套与之匹配的责任框架,为AI的落地应用划定安全的航道。正如我一直强调的,AI偶尔出现的“幻觉”或错误,并不应该成为我们恐惧的理由,反而应该视为一个重要的契机。这些错误提醒我们,AI不是神,它需要人类的引导和约束;同时也促使我们思考,如何在设计层面就植入安全与伦理的考量,而非事后补救。
这就需要全面培养市民的“AI素养”。这不仅包括如何熟练使用各种AI工具,更包括如何理解AI的局限性,如何判断AI输出的可靠性,以及在人机协作中如何划分责任。我们需要让每一个使用者都明白,AI是增强人类能力的伙伴,而非取代人类判断的神明。当使用者具备足够的判断力时,AI的自主性才能得到更充分的释放。
香港方案贡献治理
凭借香港完善的法治环境与领先的科研基础,我们完全有条件成为全球AI应用,特别是“责任架构”定义的试验田。香港既有普通法的灵活性,又有背靠祖国、连接国际的独特优势。我们可以在金融、医疗、物流等优势领域,率先探索AI智能体应用的监管沙盒,在可控环境下测试新技术、完善新规则。这不仅能推动本地产业升级,更能为国家乃至全球的AI治理贡献“香港方案”。
我们追求的不是创造一个全知全能的神,而是打造一个能够与人类社会规则和谐相处、责权边界清晰的智慧伙伴。在人工智能的世界里,能力是引擎,而许可就是軚盘。没有軚盘的汽车,引擎马力越大,失控的危险就越大。今天,我们正站在能力与许可的交汇点上,唯有两者并重,才能驾驭AI这股强大的力量,驶向更美好的未来。
作者郭毅可教授是香港科技大学首席副校长,香港生成式人工智能研发中心主任,中国工程院外籍院士,英国皇家工程院院士,欧洲科学院院士,香港工程科学院院士,美国电机电子工程师学会会士,英国电脑学会会士,中国人工智能学会会士。
文章仅属作者意见,不代表香港01立场。
01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。