過濾器
上一頁

運用區塊鏈、大數據及人工智能技術處理人力資源事宜 | 人工智能招聘及解僱的趨勢 | 發生僱傭糾紛的潛在風險

2022-03-31

運用區塊鏈、大數據及人工智能技術處理人力資源事宜 |  人工智能招聘及解僱的趨勢 | 發生僱傭糾紛的潛在風險

前言

在現今世界,人工智能及大數據正大幅改變企業招聘、僱用、評估甚至解僱員工的方式。畢竟,人力資源部門往往需要處理機構內最棘手及/或尷尬的一些事情。

新冠病毒疫情對傳統僱傭程序造成的挑戰,加速了區塊鏈、大數據和人工智能等技術在全球大型企業的應用,變得更加主流。

在這社交媒體普及,加上許多地方因疫情而實施社交距離限制的世代,應徵者不難發現與招聘相關的科技已融入求職的各個階段。微軟的LinkedIn會根據僱主的招聘貼文,運用演算法為僱主提供應徵者合適程度的排名。位於鹽湖城附近的初創公司HireVue會分析應徵者在視像面試中的說話和臉部表情,以減低對履歷的依賴。高盛自行研發了一套履歷分析工具,將應徵者與「最適合」的部門配對。特斯拉和摩根大通採用的pymetrics平台,則以網上遊戲和測驗代替履歷來評估應徵者與公司特定職位的匹配程度。


招聘過程採用人工智能的

招聘過程採用人工智能技術雖然帶來遙距、節省時間及改決策的好處但也並非沒有局限。

2015年,亞馬遜試驗一個檢閱應徵者履歷的招聘引擎,其後發現該引擎在評估軟件開發員及其他技術職位的應徵者時並非性別中立[1],因而停止使用。這是因為亞馬遜的電腦模型受訓觀察公司所收到履歷的模式,而過去十年的應徵者大部分是男性,從而反映男性在科技行業具主導地位。因此,亞馬遜的系統自行學習得出男性應徵者較可取,而包含「女性」一詞(例如「婦女棋會會長」)的履歷則會被扣分。

另一項2018年的研究發現[2]部識別軟件Face++ Microsoft Face API都認黑人應徵者比白人應徵者有更多負面情緒。Face++ 一直將黑人應徵者解讀為比白人應徵者更憤怒,而當黑人應徵者臉部表情含糊的時候,微軟則更偏向將之解讀為輕蔑。

懷孕、殘疾及有宗教信仰的僱員在工作場所獲得的安排亦是令人憂慮。大多數情況下,這些僱員多數會主動告訴僱主他們需要一些合理安排,但對於僱員來說,這類對話可能頗為敏感、私人甚至難以啟齒。假如員工與僱主的主要溝通界面是一個應用程式或演算法,員工可能更懼怕對機器展開話題,也可能不太願意向聊天機器人透露自己的私事。


法律環境

由此可見,在作出招聘決定時採用人工智能可能會產生法律問題,尤其是反歧視方面的法律。下文將扼要探討在多個司法管轄區可能規管在招聘過程中採用技術的有關法律。

美國法律

在美國,雖然沒有新的聯邦法律來評估招聘過程中採用人工智能的事宜,但人工智能技術將根據基本平等就業機會法進行評估,包括《民法》第VII章、《就業年齡歧視法》、《美國殘疾人士法》同等州法律。根據不同方面的法律框架,執法機構將審視僱主用的各種工具及其影響。如果確定工具會造成不利影響,僱主有責任證該工具妥當即證明該工具與工作相關並符合業需要。此外,僱主亦有責任評估有沒有其他可減低不利影響的方案。

伊利諾州是美國目前唯一已就人力資源技新領域。自20201月起生效的《人工智能視像面試法》規定僱主 (i) 於面試前通知應徵者,僱主可能用人工智能分析面試影片及考慮應徵者是否適合有關職位 (ii) 取得應徵者同意採用人工智能系統其面試。該法規定,僱主不得分享應徵者的影片,並需給予應徵者要求刪除影片的權利。

另一方面,紐約市議會於202111月通過一項法案,除非機構每年就招聘流程和工具進行「偏見審核」,否則禁止用「自動招聘決策工具」篩選應徵者或僱員以作出招聘決定。僱主及供應商未經披露或偏頗地採用人工智能每項違規行為將罰款最高1,500美元。新法將於202311日生效。

新加坡法律

儘管新加坡目前並無任何專門針對人工智能的法律,但新加坡是其中一個率先制定指引的國家確保人工智能的設計、開發及使用合乎道德,從而得出能夠解釋且不含無意偏見結果。20191月,個人資料保護委員會(PDPC)發表了第一版「人工智能監管模範框架」(Model AI Governance Framework)(「模範框架),為私營機構提供詳細及容易實施的指引,以處理在採用人工智能解決方案時的主要道德及管治問題。於20201月,PDPC模範框架的第二版。

模範框架的個指導原則是(i) 人工智能作出的決定應該是「能夠解釋、透明公平」的; (ii) 人工智能系統應該以人為本換言之,人工智能的設計和運用應保護人的利益,包括人的安全和福祉。為此,模範框架四個範疇提供指引,包括(a) 內部管治架構及措施;(b) 人工智能輔助決策中決定人為參與程度;(c) 在開發、選擇及維持人工智能模型時將考慮的營運管理問題;及 (d) 面對機構的持份者的互動溝通策略,以及管理與他們的關係。

雖然模範框架沒有法律約束力,但將道德原則轉化為企業可自願採取的務實措施,有助企業以負責任及合乎道德的方式採用人工智能。

香港法律

香港目前沒有專門針對人工智能的法律上文所述由人工智能引起的潛在工作場所歧視情況將屬於現有歧視法例的範圍。香港法律下,歧視分為兩類:(i) 直接歧視,個人基於受保護特點(包括性別、懷孕、餵母乳、婚姻狀況、殘疾、家庭崗位或種族)而受到較差的待遇;及 (ii) 間接歧視,即一項並無充分理由支持的條件或規定適用於所有人,但實際上有上述受保護特點的人士造成不利影響。

香港四項主要反歧視條例分別為《性別歧視條例》(第480章)、《殘疾歧視條例》(第487章)、《家庭崗位歧視條例》(第527章)及《種族歧視條例》(第602章)。至於這些條例如何應用於僱傭過程中因使用人工智能而產生的歧視申索,需待相關案件訴諸法院後才有分曉


鑒於上述法律陷阱,僱主有意在招聘過程中依賴算法、大數據或人工智能,則應確保人工智能系統提供合理的安排且不會性別、殘疾、懷孕及宗教等方面產生偏見結果。企業的人力資源部門應進行全面的盡職查,以了解人工智能工具的運作方式,並就人工智能工具生產的任何可能違反當地反歧視或私隱法律的問題,詢法律專業人士的意見。


如有查询,欢迎与我们联络:

E: techcyber@onc.hk                                                       T: (852) 2810 1212
W: www.onc.hk                                                                F: (852) 2804 6311

香港中环康乐广场8号交易广场第三期19

注意:以上内容涉及十分专门和复杂的法律知识及法律程序。本篇文章仅是对有关题目的一般概述,只供参考,不能构成任何个别个案的法律意见。如需进一步的法律咨询或协助,请联络我们的律师。

ONC柯伍陈律师事务所发行 © 2022



[1] Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Retrieved March 23, 2022, from https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G 

[2] RhueL (2018). Racial influence on automated perceptions of emotions. SSRN Electronic Journalhttps://doi.org/10.2139/ssrn.3281765

律師團隊

衞紹宗
衞紹宗
合夥人
衞紹宗
衞紹宗
合夥人
Back to top