過濾器
上一頁

香港政府就正確使用人工智能發出指引

2023-09-27

背景

政府資訊科技總監辦公室最近刊發了《人工智能道德框架》(「該框架」)該框架最初是為香港政府內部採用人工智能和大數據分析技術而制訂的,經修訂後現供研發人工智能應用程式的機構參考。

《人工智能道德框架》是甚麼?

該框架最初旨在協助政府決策局及部門在資訊科技項目及服務中規劃、設計及推行人工智能及大數據分析,它載列在進行以人工智能驅動的資訊科技項目時應採用的指導原則、主要慣例人工智能評估。儘管該框架是為政府決策局及部門而設,但同樣值得其他機構在資訊科技項目中採用人工智能及大數據分析時作一般參考。

該框架的內容

該框架包括以下部分:

1.       定制人工智能框架

a.       人工智能道德原則

b.       人工智能管治架構

c.       人工智能生命週期

d.       人工智能實

 

2.       人工智能應用程式影響評估

 

本文將概述以上各部分。

人工智能道德原則

該框架載列所有人工智能項目須遵守的以下12項人工智能道德原則:

1.       透明及可詮機構應能夠以清晰及易於理解的方式向人類解釋人工智能應用程式的決策過程。要做到可詮人工智能模型的特徵和參數提供類能夠理解的解釋機構應確保人工智能模型可以產生人可讀的解釋,並在機構與其終使用者監管機構之間建立清晰及誠實的溝通渠道。

 

2.       可靠、穩健及安全機構應確保人工智能應用程式能夠長期可靠地運作,提供一致的結果,並能抵禦網絡攻擊。

 

3.       公平機構應確保人工智能應用程式產生的結果公平地對待類似群體內的個人,不會偏或歧視特定群體或造成傷害。人工智能應用程式應數據集背後的個人保持尊重,並避免使用帶有歧視性偏見的數據集。

 

4.       多元及包容人工智能應用程式開發商應促進應用程式的使用者基礎多元化,使程式不會對某些群體作出不同的行為。為,機構應可能增加人工智能使用者目,以及不同文化、生活方式、興趣和學科的使用者

 

5.       人類監督開發人工智能應用程式時,機構應允許人干預人工智能應用程式的運,以防止道德問題。例如,當發生系統故障時,尤其有關故障將影響人安全的情況下,應允許人為干預或自動關閉。

 

6.       合法合規開發人工智能應用程式時,機構應遵守國際條約或法規、國家法例及行業標準所載的原則。機構應留意監管法規的,以確保合規。

 

7.       資料私隱機構在處理從人工智能應用程式使用者收集的個人資料時,須遵守《個人資料(私隱)條例》(第486章)(私隱條例。機構須遵守《私隱條例所載的各項責任,尤其是應通知使用者收集資料的目的,採取所有切實可行的措施保障所收集的資料免受未經授權或意外的存取、處理、刪除、遺失或使用,並提供有關其收集個人資料的政策及慣例的資料。

 

8.       安全機構應採取措施,盡量減少在操作人工智能模型過程中可能對身體、情緒及環境安全造成傷害的非預期風險。

 

9.       問責:機構清楚指明須就人工智能應用程式的道德影響及情況負責的人士。為,機構應實施政策、程序及監督,以管理人工智能系統的風險。

 

10.    帶來裨益的人工智能機構應確保人工智能應用程式的發展促進人類的共同利益和福祉,並確保人工智能應用程式不會損害人類。

 

11.    合作開放機構與終使用者及其他受影響就風險及風險管理計劃合作及溝通。機構亦應積極與不同的利益相關者合作,在人工智能生態系統中建立跨界別利益相關者合作的文化。

 

12.    可持續發展及公正轉型機構應實施緩解策略,以管理人工智能應用程式可能造成的任何潛在社會及環境系統影響。使用人工智能應用程式時應採取制衡措施,以確保可持續發展

 

在上述12項原則中,「透明及可詮釋」及「可靠、穩健及安全」屬於「績效原則」,它們是執行其餘8項「一般原則」時必須遵守的基本原則。

人工智能管治架構

基於上述原則,該框架建議機構在開發及維護人工智能應用程式時,應採用人工智能管治架構,即人工智能項目及應用程式的管理及控制慣例和方向。建議的慣例包括:

1.       建立管治架構,監督人工智能項目人工智能評估的實施;

 

2.       界定影響框架使用及維持的角色及職責;

 

3.       訂明一套指及支援 規劃、開發、部署及監察人工智能應用程式的慣例;及

 

4.       應用程式的影響評估上述慣例採納。

人工智能生命週期及實指南

該框架亦載有「人工智能生命週期」及「人工智能實務指南」,協助機構了解項目的不同階段及所涉及的要求。

人工智能應用程式影響評估

該框架亦提倡採用人工智能應用程式影響評估(「影響評估」),提供一套有系統的思考過程,以供機構評估人工智能應用程式的相關裨益及風險,並識別後續行動,以確保為實施合乎道德標準的人工智能項目而採取所需的措施及管控。機構應在人工智能項目的不同階段定期進行影響評估。

 

使用人工智能聊天機械人的十項貼士

除了人工智能應用程式的開發商,人工智能應用程式的使用者也應注意潛在風險。

私隱專員最近提出以下十項使用人工智能聊天機械人(AI chatbot)的貼士:

(a)  登記或使用前

1.       閱讀私隱政策、使用條款及其他相關資料處理政策。

 

2.       提防偽冒為人工智能聊天機械人應用程式及網絡釣魚網站。

 

3.       設定更改為不分享聊天紀錄(如適用)。

(b)  與人工智能聊天機械人互動

4.       不要分享自己他人的個人資料。

 

5.       如有需要,提出更正或刪除資料要求。

 

6.       防範網絡安全威脅。

 

7.       刪除聊天紀錄中過時的對話。

(c)   安全負責地使用人工智能聊天機械人

8.       謹慎使用人工智能聊天機械人提供的資料

 

9.       避免分享機密資料及文件。

 

10.    教師家長應在學生使用人工智能聊天機械人時提供指導。

隨著人工智能應用程式日趨普及,公眾逐漸關注工智能應用程式會對不同利益相關者及社會整體帶來甚麼潛在損害。要開發合乎道德的人工智能應用程式,開發商應遵循該框架,以確保人工智能應用程式符合人工智能道德原則,並盡量減少其可能造成的損害。

另一方面,人工智能應用程式(尤其是人工智能聊天機械人)的使用者在使用這類工具時,亦應注意保護其個人資料私隱。

 

如有查詢,歡迎與我們聯絡:

E: technology@onc.hk                                                       T: (852) 2810 1212
W:
www.onc.hk                                                                    F: (852) 2804 6311

香港中環康樂廣場8號交易廣場第三期19

注意:以上內容涉及十分專門和複雜的法律知識法律程序。本篇文章僅是對有關題目的一般概述,只供參考,不能構成任何個別案的法律意見。如需進一步的法律諮詢或協助,請聯絡我們的律師。

ONC柯伍陳律師事務所發行 © 2023

律師團隊

衞紹宗
衞紹宗
合夥人
衞紹宗
衞紹宗
合夥人
Back to top