过滤器
上一页

运用区块链、大数据及人工智能技术处理人力资源事宜 | 人工智能招聘及解雇的趋势 | 发生雇佣纠纷的潜在风险

2022-03-31

運用區塊鏈、大數據及人工智能技術處理人力資源事宜 |  人工智能招聘及解僱的趨勢 | 發生僱傭糾紛的潛在風險

前言

在现今世界,人工智能及大数据正大幅改变企业招聘、雇用、评估甚至解雇员工的方式。毕竟,人力资源部门往往需要处理机构内最棘手及/或尴尬的一些事情。

新冠病毒疫情对传统雇佣程序造成的挑战,加速了区块链、大数据和人工智能等技术在全球大型企业的应用,变得更加主流。

在这社交媒体普及,加上许多地方因疫情而实施社交距离限制的世代,应征者不难发现与招聘相关的科技已融入求职的各个阶段。微软的LinkedIn会根据雇主的招聘贴文,运用演算法为雇主提供应征者合适程度的排名。位于盐湖城附近的初创公司HireVue会分析应征者在视像面试中的说话和脸部表情,以减低对履历的依赖。高盛自行研发了一套履历分析工具,将应征者与「最适合」的部门配对。特斯拉和摩根大通采用的pymetrics平台,则以网上游戏和测验代替履历来评估应征者与公司特定职位的匹配程度。


在招聘过程采用人工智能的局限

在招聘过程采用人工智能技术虽然带来遥距连系、节省时间及改良人事决策的好处,但也并非没有局限。

2015年,亚马逊试验一个检阅应征者履历的招聘引擎,其后发现该引擎在评估软件开发员及其他技术职位的应征者时并非性别中立[1],因而停止使用。这是因为亚马逊的电脑模型受训观察公司所收到履历的模式,而过去十年的应征者大部分是男性,从而反映男性在科技行业具主导地位。因此,亚马逊的系统自行学习得出男性应征者较为可取,而包含「女性」一词(例如「妇女棋会会长」)的履历则会被扣分。

另一项2018年的研究发现[2],脸部识别软件Face++ Microsoft Face API都认为黑人应征者比白人应征者有更多负面情绪。Face++ 一直将黑人应征者解读为比白人应征者更愤怒,而当黑人应征者脸部表情含糊的时候,微软则更偏向将之解读为轻蔑。

怀孕、残疾及有宗教信仰的雇员在工作场所获得的安排亦是令人忧虑。大多数情况下,这些雇员多数会主动告诉雇主他们需要一些合理安排,但对于雇员来说,这类对话可能颇为敏感、私人甚至难以启齿。假如员工与雇主的主要沟通界面是一个应用程式或演算法,员工可能更惧怕对机器展开话题,也可能不太愿意向聊天机器人透露自己的私事。


法律环境

由此可见,在作出招聘决定时采用人工智能可能会产生法律问题,尤其是反歧视方面的法律。下文将扼要探讨在多个司法管辖区可能规管在招聘过程中采用技术的有关法律。

美国法律

在美国,虽然没有新的联邦法律来评估在招聘过程中采用人工智能的事宜,但人工智能技术将根据基本平等就业机会法进行评估,包括《民事权利法》第VII章、《就业年龄歧视法》、《美国残疾人士法》及同等的州法律。根据不同方面的法律框架,执法机构将审视雇主采用的各种工具及其影响。如果确定工具会造成不利影响,雇主有责任证实该工具妥当,即证明该工具与工作相关并符合业务需要。此外,雇主亦有责任评估有没有其他可减低不利影响的方案。

伊利诺州是美国目前唯一已就人力资源科技新领域立法的州份。自20201月起生效的《人工智能视像面试法》规定,雇主必须 (i) 于面试前通知应征者,雇主可能采用人工智能来分析面试影片及考虑应征者是否适合有关职位,及 (ii) 取得应征者同意采用人工智能系统来审核其面试。该法例规定,雇主不得分享应征者的影片,并需给予应征者要求删除影片的权利。

另一方面,纽约市议会于202111月通过一项法案,除非机构每年就招聘流程和工具进行「偏见审核」,否则禁止采用「自动招聘决策工具」筛选应征者或雇员以作出招聘决定。如雇主及供应商未经披露或偏颇地采用人工智能,每项违规行为将被罚款最高1,500美元。新法例将于202311日生效。

新加坡法律

尽管新加坡目前并无任何专门针对人工智能的法律,但新加坡是其中一个率先制定指引的国家,以确保人工智能的设计、开发及使用合乎道德,从而得出能够解释且不含无意偏见的结果。20191月,个人资料保护委员会(PDPC)发表了第一版「人工智能监管模范框架」(Model AI Governance Framework)(「模范框架),为私营机构提供详细及容易实施的指引,以处理在采用人工智能解决方案时的主要道德及管治问题。于20201月,PDPC发表了模范框架的第二版。

模范框架的两个指导原则是:(i) 人工智能作出的决定应该是「能够解释、透明及公平」的;及 (ii) 人工智能系统应该以人为本,换言之,人工智能的设计和运用应保护人的利益,包括人的安全和福祉。为此,模范框架在四个范畴提供指引,包括:(a) 内部管治架构及措施;(b) 在人工智能辅助决策中决定人为参与的程度;(c) 在开发、选择及维持人工智能模型时将考虑的营运管理问题;及 (d) 面对机构的持份者的互动和沟通策略,以及管理与他们的关系。

虽然模范框架没有法律约束力,但它将道德原则转化为企业可自愿采取的务实措施,有助企业以负责任及合乎道德的方式采用人工智能。

香港法律

香港目前也没有专门针对人工智能的法律或规例。上文所述由人工智能引起的潜在工作场所歧视情况,将属于现有反歧视法例的范围。在香港法律下,歧视分为两类:(i) 直接歧视,即个人基于受保护的特点(包括性别、怀孕、喂哺母乳、婚姻状况、残疾、家庭岗位或种族)而受到较差的待遇;及 (ii) 间接歧视,即一项并无充分理由支持的条件或规定适用于所有人,但实际上会对具有上述受保护特点的人士造成不利影响。

香港四项主要反歧视条例分别为《性别歧视条例》(第480章)、《残疾歧视条例》(第487章)、《家庭岗位歧视条例》(第527章)及《种族歧视条例》(第602章)。至于这些条例如何应用于雇佣过程中因使用人工智能而产生的歧视申索,需待相关案件诉诸法院后才有分晓。


要点

鉴于上述法律陷阱,雇主如有意在招聘过程中依赖演算法、大数据或人工智能,则应确保其人工智能系统能提供合理的安排,而且不会在性别、残疾、怀孕及宗教等方面产生有偏见的结果。企业的人力资源部门应进行全面的尽职审查,以了解人工智能工具的运作方式,并就人工智能工具生产的任何可能违反当地反歧视或私隐法律的问题,征询法律专业人士的意见。


如有查询,欢迎与我们联络:

E: techcyber@onc.hk                                                       T: (852) 2810 1212
W: www.onc.hk                                                                F: (852) 2804 6311

香港中环康乐广场8号交易广场第三期19

注意:以上内容涉及十分专门和复杂的法律知识及法律程序。本篇文章仅是对有关题目的一般概述,只供参考,不能构成任何个别个案的法律意见。如需进一步的法律咨询或协助,请联络我们的律师。

ONC柯伍陈律师事务所发行 © 2022



[1] Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Retrieved March 23, 2022, from https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

[2] Rhue, L (2018). Racial influence on automated perceptions of emotions. SSRN Electronic Journalhttps://doi.org/10.2139/ssrn.3281765

律师团队

卫绍宗
卫绍宗
合伙人
卫绍宗
卫绍宗
合伙人
Back to top