2023年4月12日,由中国电子技术标准化研究院牵头,依托国家人工智能标准化总体组和全国信标委人工智能分技术委员会,组织浙江大学、上海商汤智能科技有限公司等50余家单位共同编制完成了《人工智能伦理治理标准化指南》(下称:《指南》)正式发布。

《指南》基于中办国办《关于加强科技伦理治理的意见》、科技部国家新一代人工智能治理专委会《新一代人工智能伦理规范》和外交部《中国关于加强人工智能伦理治理的立场文件》等政策文件要求编撰,重点围绕人工智能伦理概念和范畴、人工智能伦理风险评估、人工智能伦理治理技术、人工智能伦理治理标准化四方面展开研究。
《指南》认为人工智能伦理的内涵包含三方面:一是人类在开发和使用人工智能相关技术、产品及系统时的道德准则及行为规范;二是人工智能体本身所具有的符合伦理准则的道德 编程或价值嵌入方法;三是人工智能体通过自我学习推理而形成的伦理规范。由于目前仍处弱人工智能时代,对于最后一点的探讨还为时尚早,从而,基于人工智能技术的伦理反思和基于伦理的人工智能技术批判共同构成了当前人工智能伦理的基本进路,也是人工智能伦理体系下的两大主要知识脉络。
《指南》基于《关于加强科技伦理治理的意见》提出的科技伦理原则提出了人工智能伦理的十项准则:以人为本、可持续性、合作、隐私、公平、共享、外部安全、内部安全、透明、可问责;并基于人工智能的敏捷治理原则,围绕人工智能全生命周期,重点从数据、算法、系统(决策方式)、人为因素等四个维度,识别了人工智能伦理风险来源。
因其具备高度自主性、自学习及适应能力等特征,新一代人工智能给技术治理及政府监管带来了新的挑战。基于前述人工智能伦理风险来源,《指南》从人工智能伦理的技术解决方案出发,总结了当前主要的伦理落地技术实践,并围绕人工智能生命周期的四个阶段,提出了人工智能伦理技术的框架,以及技术的实现路径。

Comments NOTHING