ImageVerifierCode 换一换
格式:PDF , 页数:12 ,大小:2.89MB ,
资源ID:6762623      下载积分:8 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.wenkunet.com/d-6762623.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(人工智能伦理安全风险防范指引2021.112行业报告.pdf)为本站会员(空登山)主动上传,文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知文库网(发送邮件至13560552955@163.com或直接QQ联系客服),我们立即给予删除!

人工智能伦理安全风险防范指引2021.112行业报告.pdf

1、TC260-PG-202TC260-PG-2021111A A网络安全标准实践指南网络安全标准实践指南人工智能伦理安全风险防范指引人工智能伦理安全风险防范指引(v v1.01.0- -202202101101)全国信息安全标准化技术委员会秘书处全国信息安全标准化技术委员会秘书处2022021 1 年年 1 1 月月本文档可从以下网址获得:本文档可从以下网址获得: 等单位的技术支持。III摘摘要要近年来,人工智能迅速发展,积极、深刻地改变了个人生活及社会运行,也带来了诸多伦理安全风险,包括影响社会价值、侵犯个人权利、影响公平公正、模糊责任边界等。为进一步确保人工智能安全可控,统筹协调人工智能发展

2、与安全,促进人工智能对国家经济、社会、生态等方面的持续推动作用,相关组织或个人在开展人工智能研究开发、设计制造、部署应用等相关活动时,应充分识别、防范、管控人工智能伦理安全风险。本实践指南依据法律法规要求及社会价值观,针对人工智能伦理安全风险,给出了安全风险防范措施,为相关组织或个人在各领域开展人工智能研究开发、设计制造、部署应用等活动时提供指引。IV目录摘要.III1 范围.12 术语与定义. 13 人工智能伦理安全风险.24 人工智能伦理安全风险防范.24.1 基本要求. 24.2 研究开发. 34.3 设计制造. 44.4 部署应用. 44.5 用户使用. 5参考文献.711 范围本文件

3、针对人工智能可能产生的伦理安全风险问题, 给出了安全开展人工智能研究开发、 设计制造、 部署应用等相关活动的规范指引。本文件适用于相关组织或个人开展人工智能研究开发、设计制造、部署应用等相关活动。2 术语与定义2.1 人工智能人工智能利用计算机或其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或扩展。2.2 研究开发者研究开发者开展人工智能理论发展、技术创新、数据归集、算法迭代等相关活动的组织或个人。2.3 设计制造者设计制造者利用人工智能理论或技术开展相关活动,形成具有特定功能、满足特定需求的系统、产品或服务的组织或个人。注:系统、产品或服务的形式包括智能算法等虚

4、拟形式,以及智能机器人等实体形式。2.4 部署应用者部署应用者在工作与生活场景中,提供人工智能系统、产品或服务的组织或个人。2.5 用户用户在工作与生活场景中,接受、使用人工智能系统、产品或服务的组织或个人。22.6 可解释性可解释性人工智能决策或行为的机制机理可以被人类理解的特性。注1:可以通过提供说明、进行理论论证等方式提高可解释性。注2:本文件中,不可解释是指部分人工智能具有的,在当前技术发展情况下,人难以理解其全部机制机理的属性。2.7 可控性可控性人工智能与预期行为和结果一致的特性。3 人工智能伦理安全风险开展人工智能相关活动,应进行伦理安全风险分析,包括:a. 失控性风险失控性风险

5、人工智能的行为与影响超出研究开发者、 设计制造者、部署应用者所预设、理解、可控的范围,对社会价值等方面产生负面影响的风险。b.社会性风险社会性风险人工智能使用不合理,包括滥用、误用等,对社会价值等方面产生负面影响的风险。c. 侵权性风险侵权性风险人工智能对人的基本权利,包括人身、隐私、财产等造成侵害或产生负面影响的风险。d.歧视性风险歧视性风险人工智能对人类特定群体的主观或客观偏见影响公平公正,造成权利侵害或负面影响的风险。e. 责任性风险责任性风险人工智能相关各方行为失当、责任界定不清,对社会信任、社会价值等方面产生负面影响的风险。4 人工智能伦理安全风险防范4.1 基本要求基本要求人工智能

6、伦理安全风险防范的基本要求包括:3a. 应符合我国社会价值观,并遵守国家法律法规;b.应以推动经济、社会、生态可持续发展为目标,致力于实现和谐友好、公平公正、包容共享、安全可控的人工智能;c. 应尊重并保护个人基本权利,包括人身、隐私、财产等权利,特别关注保护弱势群体;注:弱势群体是指生存状况、就业情况、发声途径或争取合法权益保障能力等方面处于弱势的群体。d.应充分认识、全面分析人工智能伦理安全风险,在合理范围内开展相关活动;注:合理范围是指以保障个人权利、提升社会价值为目标,具备明确边界以及清楚预期的范围。e. 研究开发者、设计制造者、部署应用者应积极推动人工智能伦理安全风险治理体系与机制建

7、设,实现开放协作、共担责任、敏捷治理;注:敏捷治理是指持续发现和降低风险、优化管理机制、完善治理体系,并推动治理体系与机制覆盖人工智能系统、产品和服务全生命周期的理念。f. 研究开发者、设计制造者、部署应用者应积极推动人工智能伦理安全风险以及相关防范措施宣传培训工作。4.2 研究开发研究开发研究开发者:a. 不应研究开发以损害人的基本权利为目的的人工智能技术;b.应避免研究开发可能被恶意利用进而损害人的基本权利的人工智能技术;c. 应谨慎开展具有自我复制或自我改进能力的自主性人工智能的研究开发,持续评估可能出现的失控性风险;4注:自主性人工智能指可以感知环境并在没有人为干涉的情况下独立作出决策

8、的人工智能。d.应不断提升人工智能的可解释性、可控性;e. 应对研究开发关键决策进行记录并建立回溯机制, 对人工智能伦理安全风险相关事项,进行必要的预警、沟通、回应;注: 研究开发关键决策是指对研究开发结果可能产生重大影响的决策, 如数据集的选择、算法的选取等。f. 应推动研究开发合作、 互信, 促进良性竞争与多元化技术发展。4.3 设计制造设计制造设计制造者:a. 不应设计制造损害公共利益或个人权利的人工智能系统、 产品或服务;b.应不断提升人工智能系统、产品和服务的可解释性、可控性;c. 应及时、准确、完整、清晰、无歧义地向部署应用者说明人工智能系统、 产品或服务的功能、 局限、 安全风险

9、和可能的影响;d.应在系统、产品或服务中设置事故应急处置机制,包括人工紧急干预机制等;应明确事故处理流程,确保在人工智能伦理安全风险发生时作出及时响应,如停止问题产品生产、召回问题产品等;e. 应设置事故信息回溯机制;示例:通过黑匣子实现无人驾驶的事故信息回溯。f. 应对人工智能伦理安全风险建立必要的保障机制, 对引起的损失提供救济。注:可通过购买保险等手段为必要救济提供保障。4.4 部署应用部署应用5部署应用者:a. 使用人工智能作为直接决策依据并影响个人权利时, 应具有清晰、明确、可查的法律法规等依据;b.在公共服务、金融服务、健康卫生、福利教育等领域,进行重要决策时如使用不可解释的人工智

10、能,应仅作为辅助决策手段,不作为直接决策依据;c. 应向用户及时、准确、完整、清晰、无歧义地说明人工智能相关系统、产品或服务的功能、局限、风险以及可能的影响,并解释相关应用过程及应用结果;d.应以清楚明确且便于操作的方式向用户提供拒绝、 干预及停止使用人工智能相关系统、产品或服务的机制;在用户拒绝或停止使用后,应尽可能为用户提供非人工智能的替代选择方案;注:用户停止使用包括因主观原因停止使用,以及因客观条件,如生理缺陷等,无法继续使用的情况。e. 应设置事故应急处置机制,包括人工紧急干预机制、中止应用机制等,明确事故处理流程,确保在人工智能伦理安全风险发生时作出及时响应;f. 应向用户提供清楚

11、明确且便于操作的投诉、质疑与反馈机制,并提供包含人工服务在内的响应机制,进行处理和必要补偿;g.应主动识别发现人工智能伦理安全风险, 并持续改进部署应用过程。4.5 用户使用用户使用用户:6a. 应以良好目的使用人工智能、充分体现人工智能的积极作用,不应以有损社会价值、个人权利等目的恶意使用人工智能;b.应主动了解人工智能伦理安全风险,积极向研究开发者、设计制造者、部署应用者反馈人工智能伦理安全风险相关信息。7参考文献1全国信息安全标准化技术委员会.人工智能安全标准化白皮书.20192国家新一代人工智能治理专业委员会.新一代人工智能治理原则发展负责任的人工智能.20193经合组织(OECD).Principles on Artificial Intelligence. 20194薛澜.走向敏捷治理:新兴产业发展与监管模式探究. 20195梁正.人工智能时代亟需构建合理高效的数据治理体系. 20196郭锐.人工智能的伦理和治理. 20197贾开.人工智能与算法治理研究. 2019

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:文库网官方知乎号:文库网

经营许可证编号: 粤ICP备2021046453号世界地图

文库网官网©版权所有2025营业执照举报