1、第九章 人工智能设计伦理学习和理解人工智能设计伦理概念与含义学习和理解人工智能伦理设计路径学习和理解机器道德设计的终极标准学习要点人工智能设计伦理主要关注的是包括机器人在内的人工智能系统或智能机器如何遵守人类的伦理规范。从两方面加以解决:一方面是人类设计者自身的道德规范。另一方面是人类的伦理道德规范如何以算法的形式实现并通过软件程序嵌入到机器中去。除了这两方面的设计伦理问题,本章还介绍基于人类伦理道德原则的机器道德推理基本结构,以及形式化表达的机器伦理价值组成与结构。学习导言学习导言在传统技术伦理范畴中,一项技术的道德属性取决于使用者的使用方式,技术本身被看做是价值中立的,即技术本身没有任何价
2、值取向或倾向性。在社会生产活动中,从产品设计的角度岀发,任何产品功能的实现都必然指向某种目的,这种目的总是与人类的主观意图有关系的。某类产品即使不隐含或体现设计者个人的主观意图,也可能隐含产品消费者或者拥有者的主观意图,但一定要通过设计者来实现,所以无论产品承载着谁的主观意图,都可以称之为“设计意图”。9.19.1产品设计与人工智能设计产品设计与人工智能设计9.1.1产品设计与价值观对于人工智能产品设计,可以从两个方面进行理解:设计者的角度从设计者的角度来看,人工智能产品应该通过某种物理实体实现某种功能,它们一定具有某种结构属性及人工智能技术能力属性。使用者的角度从使用者的角度来看,人们并不关
3、心人工智能产品是通过何种物理结构和技术来实现其功能的,人们关心的只是人工智能产品的功能。9.19.1产品设计与人工智能设计产品设计与人工智能设计9.1.2人工智能产品设计问题人工智能设计伦理指的是用于某种目的的人工智能产品或系统设计全周期过程中涉及的伦理问题。人工智能设计伦理问题毫无疑问是人工智能伦理中的关键性问题。包括机器人在内的机器伦理等方面的理论成果,最终需要落实到对机器人或其他人工智能产品及系统的设计过程中才能发挥实际的作用。9.29.2人工智能设计伦理人工智能设计伦理9.2.1 人工智能设计伦理概念与含义比如,美国亚马逊公司2019年左右生产的一款智能音箱 Echo,常在半夜发出怪笑
4、,给许多用户造成巨大心理恐慌。后来发现这种恐怖效果是由于驱动音箱的智能语音助手Alexa出现设计缺陷导致的。人工智能设计伦理比较重要的方面是开发者如何遵守相应的规范、标准、伦理规则开发相关的算法、软件、程序或硬件系统,包括如何把能够程序化的人类伦理规则嵌入到人工智能系统或智能机器当中去,以解决人工智能系统可能面临的道德困境。人工智能设计伦理的核心问题:如何让机器按照人们认为正确的方式进行道德判断或推理并采取行动,也可以说是从伦理的角度对机器的行为进行规范与限制。9.29.2人工智能设计伦理人工智能设计伦理9.2.2 人工智能开发者设计伦理人工智能产品或系统设计中实现人的隐私保护设计是对于人工智
5、能技术或系统设计的一个基本要求。隐私保护设计就是将隐私保护算法嵌入人工智能产品或系统中。隐私保护设计包括七大基本原则:隐私保护是主动的而非被动的,是预防性的而非补救性的;隐私保护是默认设置,即在默认情况下使用最高可能的隐私保护设置;将隐私保护嵌入设计中,即在设计过程中就要考虑到隐私保护,而非在系统运行时才考虑隐私保护;隐私保护效应具有正效应而非零和效应;隐私保护贯穿在全生命周期,是全程保护,而非仅在某几个时间点保护;隐私保护具有可见性、透明性和开放性;以用户为中心,尊重用户隐私。这七大原则反映了人本主义数据伦理观,是人本主义数据伦理的中观原则,是人本主义数据伦理的种实践机制。9.3 9.3 隐
6、私保护设计隐私保护设计为实现“道德机器”,研究人员提出了很多可借鉴的理论和方法思路。1.伦理道德的数学设计理论设计人员采用代码编写的算法将人类的价值取向与伦理规范嵌入到各种人工智能系统或智能机器之中,使其成为遵守道德规范甚至具有自主伦理抉择能力的“道德机器”。2.以行动为基础的伦理设计理论该理论告诉人工智能系统在伦理困境中如何采取行动,也就是赋予人工智能系统或智能机器一种或几种原则,用以引导其行为。3.自主系统伦理行为范式以案例为支撑、以原则为基础的行为范式。4.学习分布式智能体结构模型采用一种“计算认知结构”的方式实现机器伦理。9.4 9.4 嵌入式人工智能伦理设计嵌入式人工智能伦理设计9.
7、4.1 嵌入式人工智能伦理设计方法学者们为人工智能伦理设计提出了三种实现模式自上而下模式自下而上模式混合模式。第一种模式把一套明确的规则赋予机器并不一定是合理的,因为同一种原则在不同的情况下可能会导致不同的相互矛盾的决策;后一种模式则是希望机器在封闭环境中完成自我发展进化,在开放环境中实现复杂的伦理判断或选择。就目前人工智能技术而言,这是一个不可能完成的任务。无论是自上而下、自下而上,还是混合式进路,对伦理问题中涉及的因果关系难题、人类道德终极准则难题是难以应对的。9.4 9.4 嵌入式人工智能伦理设计嵌入式人工智能伦理设计9.4.2 嵌入式人工智能伦理设计路径一般说来,道德判断的结论,是由一
8、组道德原则的前提与一个或一组关于事实判断的前提二者共同推出的。简而言之,道德判断通常有两种形式。第一种形式是道德评价判断,它是对已存在的行为、行为的种类或行为原则是不是正当的、是不是道德的一种断言。第二种形式是道德决策判断,它是对未发生的但人们准备去做的事情是不是正当的、是不是道德的一种判断。9.59.5 智能机器的道德推理模型智能机器的道德推理模型 9.5.1 道德推理的基本结构在现实生活中,任何道德系统中的许多道德规范的是与非、真与假等判断结果,由于不同文明或社会背后的价值观不同,因此几乎都是有例外的,即使在同一个文明体系或社会文化环境中,也会由于具体场景的变化而导致道德规范的差异化。也就
9、是说,由于人类面对的具体境遇或情境不同,道德规则的含义、重要性和适用范围都会不相同。所以,对于人类而言,除了应该强调道德规则在道德决断中的作用外,还应强调情景对道德决策中的重要作用。因此,人类在一定情境作出道德决策时,要将推理准则运用于实际情景,就必须插入一个项或一个步骤,就是根据情景对伦理原则的怀疑与反思项。9.59.5 智能机器的道德推理模型智能机器的道德推理模型 9.5.2情景推理DrN模型结构在人类社会的道德体系中,从系统的观点出发,人们一般会同时承认下列四项基本原则。有限资源与环境保护原则(R1)一个调节社会基本结构以及政府与公民的行为是否正当的原则。必须趋向于保护生物共同体的完整、
10、稳定和优美,否则是不正当的。这个原则称为“莱奥波尔德原则”。功利效用原则(R2)一个调节社会基本结构的原则,以及调节个人与集体的行为准则是正当的,它必须趋向于增进全体社会成员的福利和减轻他们的痛苦,否则是不正当的。这个原则称为“边沁-穆勒功利主义原则”。9.6 9.6 机器伦理价值计算模型机器伦理价值计算模型9.6.1人类社会基本道德原则表达社会正义原则(R3)一种调节社会基本结构和人的行为是正当的,它必须符合这个原则,否则就是不正当的。这个原则称为“康德-罗尔斯公正正义原则”。仁爱原则(R4)一种调节社会基本结构和人们行为的原则是正当的,它必须促进人们的互惠互爱,并将这种仁爱从家庭推向社团,
11、从社团推向社会,从社会推向全人类,从人类推向自然,否则就是不正当的。这个原则称为“博爱原则”。9.6 9.6 机器伦理价值计算模型机器伦理价值计算模型9.6.1人类社会基本道德原则表达在社会道德基本原则表达基础上,将其推广到机器伦理设计,由此推导出机器行为伦理总价值的组成与结构。对于某一机器的行为A来说,它的伦理价值有下列四项组成:机器行为A的功利价值。行为A具有其功利效用,因为其符合功利原则,即增进社会有关成员的总福利而产生的价值称为“功利价值”。机器行为A的正义价值。指的是行为A因符合正义原则而带来的价值。机器行为A的生态价值。指的是行为A因符合环保原则或生态伦理原则而带来的价值。机器行为
12、A的仁爱价值。主要指的是A因符合仁爱原则或利他主义原则而带来的价值。9.6 9.6 机器伦理价值计算模型机器伦理价值计算模型9.6.2 机器行为伦理总价值 按照功利主义伦理,功利原则是综合行为功利主义和准则功利主义的系统功利原则。当人们根据行为功利主义评价某个智能机器道德行为 时,只考虑该机器道德行为 的直接效用 ;而根据准则功利主义考虑机器道德行为的效用时,只考虑它符合道德准则 所带来的社会效用 。因此系统功利原则将某一智能机器的道德行为的总效用 看作上述两项效应的函数,即这里 叫做智能机器行为的系统功利函数或整合功利函数。自变量 表示该行为的直接效用,而 表示该行为因符合某种道德准则而间接
13、获得的效用。这里的效用可以计量可通过公理系统论证,在可以分离变量和线性化的简化情况中,则有 9.6 9.6 机器伦理价值计算模型机器伦理价值计算模型9.6.3 机器伦理价值功利主义计算当机器面临道德原则相互间发生冲突时,在程序设计上应该遵循“服从比较根本的道德原则而违背被它所决定的道德原则”。机器最终必定应该服从最为根本的道德原则,亦即道德终极原则、道德终极标准。它是最根本的道德标准,是产生、决定、推导出其他一切道德标准的标准,是在任何条件下都没有例外而绝对应该遵守的道德标准,也就是绝对道德标准。9.79.7机器道德设计的终极标准机器道德设计的终极标准9.7.1机器的道德终极标准在确定机器的道
14、德终极标准基础上,按照功利主义思想确立机器的道德终极标准体系如下。增减每个人的利益总量,道德终极总标准。最大利益净余额,利益冲突的道德终极标准。最大多数人最大利益,他人之间利益冲突的道德终极标准。无私利他,己他利益冲突的道德终极标准。无害一人的增进利益总量,利益不相冲突的道德终极标准。9.79.7机器道德设计的终极标准机器道德设计的终极标准9.7.2道德终极标准体系2016年9月,英国标准协会发布业界第一个关于机器人伦理设计的公开标准机器人和机器系统的伦理设计和应用指南。指南指出,机器人欺诈问题、机器人成瘾现象,以及人工智能学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。该指南强调
15、了一系列更具争议的问题,比如人与机器人之间的情感纽带是否可取,特别是当机器人被设计为与儿童或老人互动的产品时。该标准最重要之处在于,为了防止智能机器人与人类道德规范发生冲突,机器人的设计者、研究者和生产商,三者应该如何评估机器人带来的道德风险问题。9.8 9.8 人工智能伦理设计案例人工智能伦理设计案例护理机器人价值敏感设计护理机器人价值敏感设计责任伦理概念是德国学者马克斯韦伯于1919年提出。责任伦理是在对责任主体行为的目的、后果、手段等因素进行全面、系统的伦理考量的基础上,对当代社会的责任关系、责任归因、责任原因及责任目标等进行整体伦理分析和研究的理论范畴。责任伦理强调对于现在和将来的负责
16、,也就是说人工智能不光是对于当下人们的使用不产生相关的危害,这种危害更不能延续到下一代人的身上。人工智能技术的发展,无论从政府的监管层面还是到消费者的使用层面都应该负起相应的责任。9.99.9人工智能设计责任人工智能设计责任9.9.1 9.9.1 人工智能与责任伦理人工智能与责任伦理最初的设计者应有义务确保系统正常工作,以防止不良后果的产生。人工智能系统的设计责任主要涉及以下几方面。责任免除问题如果生产商和程序员未能遵循公认的学术标准,那么他们应该为人工智能系统导致的损害承担道德责任。责任分担问题人工智能系统的设计者(包括从事人工智能系统及相关科学技术研发的科学家、工程师等)承担着道德责任。设
17、计者需要对人工智能系统的安全性、可靠性负责。9.99.9人工智能设计责任人工智能设计责任9.9.2 9.9.2 人工智能系统的设计责任人工智能系统的设计责任在基本责任原则下,在人工智能技术开发方面应遵循透明度原则,在人工智能技术应用方面则应当遵循权责-致原则。透明度原则 透明度原则要求人工智能系统设计中保证人类了解智能决策系统的工作原理,从而预测其输出结果,即人类应当知道人工智能如何以及为何作出特定决策。权责一致原则 权责一致原则是指在人工智能的设计和应用中应当保证问责的实现。问责原则“问责原则”是指明确责任主体,建立具体的法律明确说明为什么以及采取何种方式让智能系统的设计者和部署者承担应有的
18、义务与责任。9.99.9人工智能设计责任人工智能设计责任9.9.3 9.9.3 人工智能设计的基本责任原则人工智能设计的基本责任原则任何人工智能技术开发都应该遵循一般伦理原则。这些原则主要包括如下几方面。福祉与幸福福祉主要是指人工智能设计和应用应该改善人类生活质量和外部环境,包括人类赖以生存的各种个人、社会和环境因素。是非善恶人工智能的非恶意原则主要是指其设计和应用应该是出于仁爱而不是恶意的愿望,即绝对不应该造成可预见或无意识的伤害、偏见和不公平,需要避免特定的风险或潜在的危害。公平正义公平正义原则要求人工智能对所有人都是公平公正的,并且要避免保留现有的社会偏见和引入新的偏见,从而实现人人平等
19、。9.10 9.10 人工智能技术开发的一般伦理原则人工智能技术开发的一般伦理原则人权与尊严人工智能应该优先考虑并明确尊重人的基本人权和尊严。可持续当前,人类面临着来自气候、资源等方面的许多重大挑战。信任人工智能需要价值引导。人类的交往活动中,社会习俗、伦理道德、法律规范等构建起来的信任机制,构成人类合作、交易及表达不同意见的基础,可以让人们信任陌生人和陌生事物。9.10 9.10 人工智能技术开发的一般伦理原则人工智能技术开发的一般伦理原则人工智能设计伦理概念及含义。实现人工智能或机器伦理道德的设计路径。基于人类道德原则的机器道德推理逻辑结构和模型。人工智能机器如何与人类普遍认可的价值观相一致,如何服从于人类的共同价值,如何受到人类所普遍认可和广泛接受的基本的伦理原则的约束,此类问题都应有人工智能设计伦理以及机器伦理相关研究加以解决。人工智能系统应该被合乎伦理地设计、开发与应用。9.119.11本章小结本章小结