《香港01》学生资讯素养讲座 中大学者拆解AI演算影响大众的逻辑
人工智能的发展无远弗届,日常生活都与AI有关。有否想过当你刷IG短片,或在招聘网站投递履历时,背后都有一套看不见的演算法,正在默默地为你“打分”或“贴标签”?《香港01》早前邀请到中文大学社会学系李劲华博士,到九龙塘学校(中学部)为学生举行资讯素养讲座,以社会科学方法深入探讨AI的相关现象。李博士与其团队近年致力开发多个学科为本的AI素养微学习单元,是次讲座中分享的部分“行内人”观点,正是团队在开发过程中累积的经验所得。
李博士(Dr. Kent Lee)于讲座伊始便问学生︰“大家今早起床后,有没有开过手机应用程式?”都市人机不离手,李博士指出,其实透过手机上各式的应用程式,大众的生活早已受 AI 推荐系统(Recommendation System)制约。有别于传统依赖访谈和问卷的研究方式,AI如今能直接透过分析大数据,在我们毫无察觉下作出分类与牵引。
AI会以演算法分类(Algorithmic Sorting),透过行为与背景资料自动划分群体。例如Netflix推荐系统会为观众分类;招聘网站则透过履历、甚至利用 AI 进行面部表情分析来筛选“理想员工”。除了分析个人,AI更擅长梳理人与人之间的连结。社交媒体便会进行网络分析(Network Analysis),借助AI即时处理巨量数据的能力,将社会关系量化。AI可根据WhatsApp的互动记录画出“关系地图”,推断出谁是掌握话语权的“中心节点”,不太活跃的发言者则为“边缘节点”。这种将关系量化的技术,应用层面甚广——,政府便曾于疫情期间,利用类似原理来追踪确诊者的接触史,以阻断传播链。
李博士之后再深入浅出讲解“协同过滤”(Collaborative Filtering)的原理,他以“人以群分,物以类聚”来作比喻。假设两名同学之间的需求相似,AI就会把对方喜欢的产品推荐予另一人,连电影、剧集的喜好都能精准推送。李笑言,AI就像一个“心思细密的智能助手”,替人省去搜寻的时间,不过,要小心陷入“信息茧房”(Information Cocoons)及“过滤气泡”(Filter Bubble),有机会变成只看到自己想看的内容,令视野变得狭窄。
李提到,学生近年遇上情绪问题时求助比例偏低,当中有人指可将AI作为24小时“情绪树洞”。不过他提醒AI并非确切理解人类语言,它只是透过大型语言模型(LLM)中的三大核心Tokenization(词元化)、Vectorization(向量化)与 Computation(神经网络处理),将文字转为数字ID并计算对话词汇出现的概率。所以与AI进行情感咨询会存在风险,毕竟AI缺乏同理心,亦无法处理危机,故不应视之为“医生”。
此外,李博士又向同学介绍芝加哥大学开发的犯罪预测模型,它能将城市划分成网格,并根据历史数据规律,提前一周预测犯罪地点,准确率高达90%。而韩国也有类似系统,透过CCTV影像生成“犯罪预测热力图”,从而安排巡逻配置,准确率亦达82.8%。
尽管AI威力强大,李博士在讲座尾声,再次提醒同学们要警惕AI当中的演算法偏见。他表示︰“AI只是辅助工具,并非最终决策人,真正的意义在于人性的理性判断。”
目前教育局透过优质教育基金推出“我的行动承诺”加强版拨款计划及“我的行动承诺”加强版拨款计划(第二阶段),中、小学(包括特殊学校)可申请一次最多30万元拨款,用于国民教育和国安教育,媒体资讯素养教育,及/或促进学生身心健康,资助项目包括学生讲座/工作坊、参观、体验活动、教师工作坊、购买或制作教材等。若希望了解申请拨款详情,参阅此文章。
《香港01》能因应中/小学的不同需要,推出媒体和资讯素养,以及国民教育和国家安全教育的支援,形式不限,包括学生、家长或教师讲座/工作坊、校本专业支援、教育资源库、到访《香港01》或其他主题式的体验活动等。
如对计划有任何查询,欢迎联络香港01有限公司代表黄先生:
电邮:education@hk01.com (标题注明 ‘媒体资讯素养活动’)
WhatsApp:35828747
电话:35828747