过滤器
上一页

香港政府就正确使用人工智能发出指引

2023-09-27

背景

政府资讯科技总监办公室最近刊发了《人工智能道德框架》(「该框架」)。该框架最初是为香港政府内部采用人工智能和大数据分析技术而制订的,经修订后现供研发人工智能应用程式的机构参考。

《人工智能道德框架》是甚么?

该框架最初旨在协助政府决策局及部门在资讯科技项目及服务中规划、设计及推行人工智能及大数据分析,它载列在进行以人工智能驱动的资讯科技项目时应采用的指导原则、主要惯例及人工智能评估。尽管该框架是为政府决策局及部门而设,但同样值得其他机构在资讯科技项目中采用人工智能及大数据分析时用作一般参考。

该框架的内容

该框架包括以下部分:

1.       定制人工智能框架

a.       人工智能道德原则

b.       人工智能管治架构

c.       人工智能生命周期

d.       人工智能实务指南

 

2.       人工智能应用程式影响评估

 

本文将概述以上各部分。

人工智能道德原则

该框架载列所有人工智能项目须遵守的以下12项人工智能道德原则:

1.       透明及可诠释:机构应能够以清晰及易于理解的方式向人类解释人工智能应用程式的决策过程。要做到可诠释(即就人工智能模型的特征和参数提供人类能够理解的解释),机构应确保人工智能模型可以产生人类可读的解释,并在机构与其最终使用者及监管机构之间建立清晰及诚实的沟通渠道。

 

2.       可靠、稳健及安全:机构应确保人工智能应用程式能够长期可靠地运作,提供一致的结果,并能抵御网络攻击。

 

3.       公平:机构应确保人工智能应用程式产生的结果公平地对待类似群体内的个人,不会偏好或歧视特定群体或造成伤害。人工智能应用程式应对数据集背后的个人保持尊重,并避免使用带有歧视性偏见的数据集。

 

4.       多元及包容:人工智能应用程式开发商应促进应用程式的使用者基础多元化,使程式不会对某些群体作出不同的行为。为此,机构应尽可能增加人工智能使用者的数目,以及不同文化、生活方式、兴趣和学科的使用者。

 

5.       人类监督:开发人工智能应用程式时,机构应允许人为干预人工智能应用程式的运作,以防止道德问题。例如,当发生系统故障时,尤其在有关故障将影响人类安全的情况下,应允许人为干预或自动关闭。

 

6.       合法合规:开发人工智能应用程式时,机构应遵守国际条约或法规、国家法例及行业标准所载的原则。机构应留意监管法规的变更,以确保合规。

 

7.       资料私隐:机构在处理从人工智能应用程式使用者收集的个人资料时,须遵守《个人资料(私隐)条例》(第486章)(《私隐条例》)。机构须遵守《私隐条例》所载的各项责任,尤其是应通知使用者收集资料的目的,采取所有切实可行的措施保障所收集的资料免受未经授权或意外的存取、处理、删除、遗失或使用,并提供有关其收集个人资料的政策及惯例的资料。

 

8.       安全:机构应采取措施,尽量减少在操作人工智能模型的过程中可能对身体、情绪及环境安全造成伤害的非预期风险。

 

9.       问责:机构应清楚指明须就人工智能应用程式的道德影响及滥用情况负责的人士。为此,机构应实施政策、程序及监督,以管理人工智能系统的风险。

 

10.    带来裨益的人工智能:机构应确保人工智能应用程式的发展促进人类的共同利益和福祉,并确保人工智能应用程式不会损害人类。

 

11.    合作及开放:机构与最终使用者及其他受影响群体应就风险及风险管理计划合作及沟通。机构亦应积极与不同的利益相关者合作,在人工智能生态系统中建立跨界别利益相关者合作的文化。

 

12.    可持续发展及公正转型:机构应实施缓解策略,以管理人工智能应用程式可能造成的任何潜在社会及环境系统影响。使用人工智能应用程式时应采取制衡措施,以确保可持续发展。

 

在上述12项原则中,「透明及可诠释」及「可靠、稳健及安全」属于「绩效原则」,它们是执行其余8项「一般原则」时必须遵守的基本原则。

人工智能管治架构

基于上述原则,该框架建议机构在开发及维护人工智能应用程式时,应采用人工智能管治架构,即人工智能项目及应用程式的管理及控制惯例和方向。建议的惯例包括:

1.       建立管治架构,以监督人工智能项目及人工智能评估的实施;

 

2.       界定影响该框架的使用及维持的角色及职责;

 

3.       订明一套指导及支援 规划、开发、部署及监察人工智能应用程式的惯例;及

 

4.       就应用程式的影响评估上述惯例的采纳。

人工智能生命周期及实务指南

该框架亦载有「人工智能生命周期」及「人工智能实务指南」,协助机构了解项目的不同阶段及所涉及的要求。

人工智能应用程式影响评估

该框架亦提倡采用人工智能应用程式影响评估(「影响评估」),提供一套有系统的思考过程,以供机构评估人工智能应用程式的相关裨益及风险,并识别后续行动,以确保为实施合乎道德标准的人工智能项目而采取所需的措施及管控。机构应在人工智能项目的不同阶段定期进行影响评估。

 

使用人工智能聊天机械人的十项贴士

除了人工智能应用程式的开发商,人工智能应用程式的使用者也应注意潜在风险。

私隐专员最近提出以下十项使用人工智能聊天机械人(AI chatbot)的贴士:

(a)  登记或使用前

1.       阅读私隐政策、使用条款及其他相关的资料处理政策。

 

2.       提防伪冒为人工智能聊天机械人的应用程式及网络钓鱼网站。

 

3.       将设定更改为不分享聊天纪录(如适用)。

(b)  与人工智能聊天机械人互动时

4.       不要分享自己或他人的个人资料。

 

5.       如有需要,提出更正或删除资料要求。

 

6.       防范网络安全威胁。

 

7.       删除聊天纪录中过时的对话。

(c)   安全及负责地使用人工智能聊天机械人

8.       谨慎使用人工智能聊天机械人提供的资料。

 

9.       避免分享机密资料及文件。

 

10.    教师/家长应在学生使用人工智能聊天机械人时提供指导。

总结

随着人工智能应用程式日趋普及,公众逐渐关注工智能应用程式会对不同利益相关者及社会整体带来甚么潜在损害。要开发合乎道德的人工智能应用程式,开发商应遵循该框架,以确保人工智能应用程式符合人工智能道德原则,并尽量减少其可能造成的损害。

另一方面,人工智能应用程式(尤其是人工智能聊天机械人)的使用者在使用这类工具时,亦应注意保护其个人资料私隐。

 

如有查询,欢迎与我们联络:

E: technology@onc.hk                                                       T: (852) 2810 1212
W: www.onc.hk                                                                    F: (852) 2804 6311

香港中环康乐广场8号交易广场第三期19

注意:以上内容涉及十分专门和复杂的法律知识及法律程序。本篇文章仅是对有关题目的一般概述,只供参考,不能构成任何个别个案的法律意见。如需进一步的法律咨询或协助,请联络我们的律师。

ONC柯伍陈律师事务所发行 © 2023

律师团队

卫绍宗
卫绍宗
合伙人
卫绍宗
卫绍宗
合伙人
Back to top