过滤器
上一页

塑造香港的人工智能未来:寻求生成式人工智能的发展平衡

2025-09-22

简介

香港数字政策办公室(「数字办」)于2025415日发出了《香港生成式人工智能技术及应用指引》(「该指引」),就如何安全应用生成式人工智能(generative AI)为技术开发者、服务提供者及服务使用者提供实务建议,涵盖人工智能的应用范围、潜在风险及治理原则等核心议题,当中包括资料泄露、模型偏见及错误等必须妥善管理的技术问题。

该指引旨在推动创新,同时提供必要的保障,有助香港成为妥善使用人工智能的区域枢纽。

该指引的框架

该指引就生成式人工智能建立治理框架,推动其有效及有益的应用。该框架围绕五个主要范围,即个人资料私隐、知识产权、犯罪防治、真实可信及系统安全,以鼓励持份者明确行为范围,并评估在这些范围的风险。

此框架的主要特点是以风险为本,将人工智能系统分为四个风险级别,即:不可接受风险、高风险、有限风险及低风险,视乎风险程度各有不同的规管措施。风险最高的系统会受到全面禁止,开发者亦须承担法律责任;而低风险的应用只需进行基本的自我认证。

上述分级系统确保以合乎比例的原则进行监管,在创新与保障使用者及公众之间取得平衡。该指引亦强调安全、透明、准确、可靠、公平及客观,与经济合作暨发展组织(OECD)及欧盟《人工智能法案》等国际原则保持一致。

值得注意的是,香港的框架着重实用和效率,要求开发者及服务提供者透过优化算法、完善模型架构及多元应用,提升生成式人工智能的效用。这些指引有助确保生成式人工智能在不同任务及行业中产生的内容均优质、高效及切合服务使用者的意图。

持份者的实务指引

技术开发者(包括委托开发或决定技术用途的人士)宜设立涵盖数据、质量监控及合规等范畴的内部专门团队,以确保安全及符合法规要求。开发者应在部署前进行全面测试,亦应定期进行合规审查及评估,以及在处理个人资料时采用先进的匿名化及加密技术。此外,开发者还应使用多元数据集以提高内容的公平性,及透过优化算法以减少偏见及人工智能模型幻觉。

服务提供者(包括提升现有技术的平台营运者)应建立妥善的人工智能服务框架。这包括实施内容治理以防止输出非法或不恰当的内容,提供简单易用的事实查证工具,以及确保人工智能生成的内容具透明度。此外,服务提供者应进行风险评估、试点测试及独立审核,并应遵守资料私隐法规,及防止资料投毒(data poisoning)等威胁。

该指引列出了服务使用者(包括创作或发布人工智能生成内容的个人及机构)应履行的多项主要责任。使用者如在创作内容或决策过程中曾使用人工智能,则应清楚标明,以确保透明度;在使用或分享人工智能产生的内容前,亦需主动核实内容的准确性及适用性。使用者还应了解人工智能的局限,包括潜在的偏见、错误或模型幻觉,以作出有根据的决定。最后,该指引亦建议选用设有严谨私隐政策的服务,并谨慎避免在不必要的情况下分享敏感资料。

香港在全球人工智能治理中的位置

该指引虽然并无法律效力,但其重要性在于提醒各界,人工智能的部署和使用均涉及重大的法律和伦理风险。生成式人工智能及其他人工智能技术瞬息万变,用途广泛,其潜在风险实难预料,而该指引订明了妥善使用人工智能的主要原则,为减低有关风险提供实务基础。

要点

该指引为香港参与全球人工智能治理建立了稳固的制度框架,反映香港在生成式人工智能急速发展之际,积极地应对崭新先进技术应用的重要挑战,包括资料私隐、伦理风险、透明度、虚假资讯及算法问责等问题。为确保该指引持续有效并具影响力,当局需持续进行评估、推动国际协作及积极吸纳公众意见。现正采用或准备采用生成式人工智能的企业应参考该指引,就采用人工智能制定企业内部政策及评估风险,以确保在人工智能时代的竞赛中,既能跟上人工智能发展的浪潮,同时维持适当的人为监督及治理。

 

如有查询,欢迎与我们联络:

E: technology@onc.hk                                                       T: (852) 2810 1212
W: www.onc.hk                                                                    F: (852) 2804 6311

香港中环康乐广场8号交易广场第三期19

注意:以上内容涉及十分专门和复杂的法律知识及法律程序。本篇文章仅是对有关题目的一般概述,只供参考,不能构成任何个别个案的法律意见。如需进一步的法律咨询或协助,请联络我们的律师。

ONC柯伍陈律师事务所发行 © 2025

 

律师团队

卫绍宗
卫绍宗
合伙人
卫绍宗
卫绍宗
合伙人
Back to top