ASAP智库|AI 时代生存指南:解构 AI 素养四大核心元素

撰文: 亚太政策倡议研究所ASAP
出版:更新:

亚太政策倡议研究所(ASAP)专栏|张博宇、冯巧欣

回想一下,您最近一次用生成式人工智能(AI),是产出了新春贺图、客户电邮、图文并茂的PPT简报,还是查询生活日常?AI愈趋普及,从日常生活到学习与工作,无论是学生还是职场人士,都已广泛应用AI,但“用得到”不等于“用得好”。不少家长、教师、雇主,甚至政策制定者,都在问同一条问题:如何判断一个人“AI用得好不好”?懂得输入指令(Prompt)是否就等于“识用”AI?所谓“AI素养”,其实并非单一分数,而是一套互相关联的能力,有助不同持分者更有系统地评估子女、学生、员工,甚至整体教育政策的方向是否正确。事实上,近年本地以至国际间,已出现多个AI素养框架,从多个面向勾划出AI时代应具备的关键能力。这里,先和大家聚焦其中四个在多个框架中经常出现的核心元素。

首先是理解各AI模型的能力与限制。AI其实是一大族群,不同模型各有专长与短板。有些 AI模型专攻“文字生文字”,擅长摘要整理、草拟文章、翻译段落;有些擅长“文字生图像”,可以指示生成海报、插画或产品设计草图;也有“文字生影片”、“图像转图像”等应用,能制作短片、为旧相片补色,或把手绘草图转化为更精致的设计。虽然目前最先进的AI已能处理多模态输入输出,例如同时理解文字、声音、图像及影像,但用家细心使用后会发现,不同模型在各模态的表现仍存在明显差异。有些在文字推理特别可靠,却未必擅长视觉细节;有些生成图像效果出众,但在长文逻辑结构上容易出错。

这种对“能力与限制”的理解,其实不单是“认识工具”,更是一种基础的技术素养。有些国际框架便明确指出,学生要知道AI是如何透过数据和演算法训练而成,并明白现有AI仍属“狭义AI”,只在特定任务上表现突出,并非全能。这种理解不一定要求人人都会写程式或搭建模型,但至少要知道:为何AI需要大量数据?模型能处理的是甚么形式的资讯?当使用者明白各AI模型的专长与局限,便能按实际需求,例如写报告、制作海报、剪辑影片或修图,选用最合适的工具,而非“一个AI用到底”,亦即是懂得把AI摆放在工作流程中的合理位置,既不神化,也不低估。

第二是懂得质疑。很多人第一次接触生成式AI时,往往被其流畅的语言、整齐的格式所折服,觉得“讲得头头是道”,便自然相信其内容属实。但在专业领域里,大家很快便会发现,AI有时会产生错误资讯,甚至虚构内容。这种现象在业界被称为“AI幻觉”(AI Hallucinations)。AI模型的开发高度依赖大量优质数据,因此在缺乏资料、题目模糊或训练数据本身存在偏差时,就很容易一本正经地说错话。如果使用者缺乏批判思维,只因内容“睇落”专业、有说服力,就不加思索地原文转贴、引用或借以作出决策,便极易被误导,甚至把错误讯息散播开去。

因此,评估AI素养的另一关键,在于使用者能否主动验证AI提供的资讯。这种验证不只是“再问一次AI”,而是要懂得追问每项资讯的来源,判断来源是否可信,并与其他独立渠道交叉比对。例如,当AI就某学术问题作答时,使用者应该检视它提到的参考文献是否真有其书、有其期刊,有没有被断章取义。当它就健康、法律或财务议题提出建议时,使用者要懂得把AI的回应视作初步参考,而不是专业诊断,必要时仍要寻求具资格的专业人士意见。部分AI素养框架甚至进一步指出,现代公民还需具备辨识AI生成内容的能力,包括识别深度伪造(Deepfake)影片、AI改图或自动生成的假新闻,懂得检视影像是否有不合常理的细节、查核发布帐户与时间、理解演算法如何放大夸张内容等。“懂得质疑”不只是一种态度,而是一系列可教、可学的技巧,包括如何追问、如何查核资讯、如何判断真伪。

第三是道德与责任感。AI素养并非纯技术问题,背后牵涉价值观与公民责任。当AI可以轻易生成文章、图片及影片,抄袭、侵犯私隐及散播偏见变得前所未有地容易。一篇看似“自己写”的作业,可能只是把AI生成的内容稍加改动;一张看似真实的照片,可能是把他人的脸孔与身体拼凑而成;一段带有张力的叙事,可能来自本身已偏颇的训练数据。这些情况不单关乎个人操守,更关乎整个社会对“负责任使用AI”的基本共识。

因此,无论是家长、教师还是雇主,在评估子女、学生或员工的 AI 素养时,都应关注他们能否清楚分辨甚么可以交给AI处理、甚么绝对不可以,以及每次输入资料、文件及相片时,是否意识到背后涉及私隐、知识产权与责任风险。例如,学生是否知道不能把同学的相片随意上载到第三方平台来试玩“换脸”功能?员工在处理客户个人资料时,是否明白不能把资料直接复制到公开AI工具中?许多国际的AI素养框架,都把这种“伦理意识”视为不可或缺的一环。

第四是人机协作。AI不应被视为取代人类的神秘“黑箱”,而是融入决策、创作和学习流程中的伙伴。良好的人机协作能力,在于清楚掌握AI的能力与局限,并能按不同任务进行合理分工。有些由人主导、AI辅助,有些可以先由AI处理,再由人作最后把关。举例来说,使用者可以先请AI协助把庞杂的资料整理成重点,再由自己进行深入阅读与批判评估;设计师可以用AI生成多种初步视觉方案,再凭专业眼光选择、修改与定稿。

在多个AI素养框架中,“人机协作”并不只是操作层面的“懂得下指令”,还包括沟通与反思能力。使用者需懂得下达清晰、具体的指令,不断调整和修正AI的输出,并在过程中反思自己对问题的理解是否也需要更新。这种互动更像是和一位能力强但不完全可靠的助手合作。使用者要懂得说清楚目标、提供足够背景资料、设定评估标准,同时保留最终决定权与价值判断。有些框架甚至将“把问题拆解成适合人与AI分工的小步骤”视为一项核心能力。懂得哪些步骤适合用AI自动化处理,哪些必须由人亲自判断,便能在提升效率的同时维持质素。

从以上四个元素可以看出,AI素养不仅是输入指令的能力,更是一种综合性的思维方式与价值判断。从理解AI模型的能力与限制、保持批判思维质疑输出结果、坚守道德与责任底线,到掌握人机协作的平衡,这些核心元素共同构成了AI时代不可或缺的能力框架。无论是教育工作者培养下一代、雇主评估员工,还是政策制定者规划教育方向,都应以这些多维度的评估标准作为参考,从课程设计、评核模式到校本及职场指引,逐步建立清晰而具前瞻性的AI使用文化,确保AI的应用既高效又负责任。

马年伊始,本栏将马不停蹄与各位分享不同领域的政策研究内容,期望立足香港、比较区域和环球政策为定位,与大家辨明政策推动的方向,并从AI素养等新兴议题出发,思考如何在快速变动的科技环境中保障公义与福祉,与大家共同缔造更美好的社会。

作者张博宇为亚太政策倡议研究所ASAP研究总监;作者冯巧欣为亚太政策倡议研究所ASAP倡议总监。

亚太政策倡议研究所(Asia-Pacific Society for Advocacy and Policy, ASAP)结合严谨精辟的公共政策研究及积极倡议策略,将实证研究转化为政策推动力。

文章仅属作者意见,不代表香港01立场。

01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。