彭韵僖|人工智慧与性别平等:法律人的使命与挑战
10月中旬,我前往越南河内,以刚卸任会长的身份参加了亚太法律组织 LAWASIA 的年度大会。期间,我与来自亚太地区的法律精英齐聚一堂,共同见证人工智慧(AI)为法律界带来的革命性变化。AI 不仅提升了工作效率、开创了新的经济领域,更为解决复杂社会问题提供了全新途径。然而,在这场技术飞速跃进的浪潮中,我们也必须正视一个严峻挑战:AI 正在无形中加剧“性别不平等”。
偏见数位化的延续
人工智慧常被误解为绝对客观的决策者,实则不然。AI系统透过人类提供的数据进行训练,不可避免地承袭了历史数据中的“性别偏见”。正如计算机科学的经典格言:“垃圾进,垃圾出。”若以带有偏见的数据训练AI,系统将以惊人的规模和速度复制并强化这些偏见。
今年香港一项研究显示,当男女分别使用AI完成同等品质工作时,女性的专业能力评分明显偏低。这并非技术故障,而是系统性偏见的自动化再现。《香港性别焦虑调查》同样发现,职场女性对AI导致失业的忧虑显著高于男性,这反映了女性对潜在不公的敏锐洞察。
系统性歧视的强化
在金融领域,若AI以过往信贷数据进行训练,这些产生于女性经济地位较弱时期的数据,将导致算法系统性地歧视女性申请者。招聘领域更是如此,已有国际案例显示,AI会自动降低含“女性”词汇简历的评分,仅因训练数据中男性获聘率较高。
即使在法律专业领域,用于预测判决结果、辅助量刑的AI工具,若以带有性别偏见的历史判例训练,便可能将过时的歧视观念制度化为“客观”的数据分析。这使得性别不平等在算法黑箱中被自动化、系统化,受害者却难以挑战“中立机器”的决策结果。
建公平未来的路径
面对这些挑战,我们必须从三个层面着手:
首先,建立完善的法律问责机制。我们需要在金融、就业、司法等高风险领域推行算法影响评估制度,实施强制性性别偏见审计。香港律师会去年发布的《人工智慧立场书》已明确指出,必须加快建立AI法律与伦理框架,并将科技素养纳入律师专业能力范畴。同时,必须确立“解释权”,确保个人面对AI决策时,有权获得清晰易懂的解释。
其次,强化企业技术治理。我们需要投入“去偏见”技术的研发,建立更具代表性的数据集,培养具备伦理意识的技术人才,并将技术问责纳入企业治理体系。
最后,培育深度包容文化。技术终究反映创造者的价值观。若AI研发团队缺乏多元性,就难以察觉潜在的偏见问题。因此,必须提升科技行业、董事会和监管机构的性别多元性,这不仅是口号,更是防范认知盲区的关键保障。
这三重策略并非为了限制创新,而是引导AI朝着更智慧、更公平的方向发展。作为法律人,我们肩负着确保技术进步不牺牲社会公平的使命。当AI持续革新法律实践,我们必须确保这项技术能够平等地服务所有人,而不是将历史的不公编码进未来的基石。唯有如此,我们才能建设一个真正公正的数位未来。
作者彭韵僖是全国政协委员,香港律师会前会长。
文章仅属作者个人意见,不代表香港01立场。
01专栏精选不同范畴专家,丰富公共舆论场域,鼓励更多维度思考。