AI 2027 —— 当代理人成为我的日常基建|苏仲成

撰文: MetaHero
出版:更新:

这两个月,我已经全面把日常工作的重担交予 AI 代理人(Agent)。这些代理人不只是聊天机械人,而是能够真正“落手落脚”处理事情的工具。举凡更新网站、维护 LinkedIn、在网上填写表格、输入资料、整理报告,甚至安排全天候的工作日程与资料搜集,代理人都能自动完成。这种感觉,就像忽然多了几个不用请假的助理。2025年开始,我就亲眼见证初代 AI Agent 出现在市场,虽然仍处于试验阶段,但已经能执行不少过去必须由人类处理的行政与操作工作。这个过程让我重新思考“工作分工”的概念。以前我们总以为“人类负责决策、机器负责执行”是自然分界,但当代理人能在 Slack 或 Teams 上接收指令,甚至能自主完成程式代码的修改和提交,这条界线开始模糊。

文:Michael C.S. So(AiX Society 人工智能应用研究学会-创会会长)

半熟状态的“蹒跚学步”

根据《AI 2027》报告(由 Daniel Kokotajlo 等人于 2025 年 4 月 3 日发表,AI Futures Project 出版,ai-2027.com),2025 年被称为“蹒跚学步的代理人”阶段。研究指出,当时的代理人在 OSWorld 电脑任务基准测试中的表现约为 65%,仅稍低于一名熟练人类的 70%。换句话说,它们仍不够稳定,需要人类监督与复核。

但这种“半信任”状态恰恰是企业的试炼场。因为这正迫使我们去重新设计流程:哪些工作可以外判给 AI,哪些需要设置权限与监管,这些问题都必须被清楚定义。

对我而言,这样的“半成熟”并不是坏事。因为企业转型不是等到 AI 完美才开始,而是要在风险可控范围内边走边试。这和创业精神有异曲同工之妙:永远没有最理想的时机,行动本身就是学习。

日常生活的例子:AI 在“前线”

举个例子:以前我需要一个助理每天整理新闻,帮我找出和 AI、医疗或金融相关的资料。现在,一个 AI Agent 就能在三十分钟内自动爬梳数十份新闻、研究和报告,然后浓缩成三页摘要,再自动送到我的邮箱。它虽然偶尔会错引或重复,但节省下来的时间,已经远超这些小错误的代价。

另一个场景是财务:AI Agent 可以直接打开会计系统,输入收支数据、做简单报表。虽然需要人类会计师最后审核,但流程已经由“手工输入”变为“监督检查”。这正是《AI 2027》所描述的“从工具转向代理”的过程。

成本曲线的“剪刀差”

我读到最震撼的一段,是《AI 2027》提到尖端 AI 的成本和普及型 AI 的成本正出现“剪刀差”。专业级代理系统的月费可能达到数百美元,但达成“既有能力”的成本却在急速下降,研究估计下降速度达到每年五十倍。

这意味著什么?意味著未来的企业结构将会出现“双层帐本”:

一方面,企业会投资昂贵的尖端 AI,用于战略性与高价值任务。

另一方面,则以低成本的普及型 AI 渗透到员工日常工作。

这种模式能同时创造差异化与规模化优势。从我的角度来看,这不仅是成本分配的问题,而是管理哲学的转变:领导层必须学懂怎样把资源分层使用,既不错失技术前沿,又能确保全体员工的工作效率获得提升。

算力即国力:OpenBrain 的启示

《AI 2027》报告中虚构了一家公司“OpenBrain”,在 2025 年底建立了史上最大规模的 AI 丛集,相当于 250 万片 H100 GPU,耗资 1,000 亿美元,功耗达 2GW,并计划于 2026 年再度加倍。

这不再只是工程壮举,而是国家级基建。当 AI 的进展和电力、光纤网络、供应链安全挂钩时,竞争已经超越“谁的模型更好”,而是“谁能负担这庞大基建”。

这让我联想到冷战时代的核武竞赛。不同的是,这次竞争的武器不是导弹,而是 GPU、数据中心和能源供应。换句话说,未来的“国力”,会和算力画上等号。

2027:AGI 是否真的会来?

报告同时引述了 OpenAI、DeepMind、Anthropic 等公司领导层的预测,他们一致认为 AGI(通用人工智慧)可能在五年内出现。Sam Altman 更曾公开表示,OpenAI 的目标是“真正意义上的超级智慧”(superintelligence)。

2027 是否真的会是 AGI 元年?这个问题,我认为没有人能准确回答。但可以确定的是,AGI 已不再只是科幻小说中的想像,而是必须严肃对待的未来选项。

就算 AGI 没有如期出现,AI 的普及和渗透速度,已经足以改变社会的运行逻辑。

我读后的反思:设计容错的系统

我在阅读《AI 2027》后得到最大的启发,是“容错性”的重要性。真正的挑战不在于 AI 能否取代人类,而是我们是否能设计出一套能容忍错误、能快速调整的制度,让我们在面对 AI 的不稳定时,仍能继续前进。

这也许是对所有企业和个人的提醒:不要期望 AI 给我们完美答案,而是要打造一个能够“失败后迅速恢复”的环境。这样,即使 AI 犯错,我们仍然不会被世界淘汰。

《AI 2027》给我的最大感受,是它让未来不再只是遥远的科技预言,而是一份必须立即行动的待办清单。

2027 年的核心问题,不在于 AGI 是否真的诞生,而在于我们是否已经准备好迎接它。准备的重点,不是找到最正确的答案,而是设计能容错、能快速调整的制度,让我们即使在 AI 犯错时,仍能持续向前。

对我来说,真正的课题是:如何利用 AI,避免自己与企业被世界取代。这正是《AI 2027》抛出的最深刻问题,也是我写下这篇专栏的原因。