导读:很多朋友问到关于人工智能的道德反应有哪些的相关问题,本文首席CTO笔记就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!
为什么人工智能面临的最大挑战是道德问题
该问题与一个历史事件很相象:
哥白尼的“日心说”,导致了建立在“地心说”上的一切观念随之崩塌。包括科学与宗教。
人工智能将导致建立在“只有人才会思考”这一观念上的所有概念崩塌。包括以此为基础的道德、宗教。
对于一个与自己相同的异类,为了方便思考,假设“人工智能”是会思考的“猴子”,而且是人类创造出来的,并且会很快超过人类,视人类为草芥的生物。
人们应该对“它”示好,还是对“它”打压?
“它”会不会为了生存,害怕被人打压,而采取先手打压人类?
假如,它的智能完全复制于一个自然人,二者同时存在,那么,我是谁?谁是我?
假如,人工智能通过精确的计算,判断某个人A,在未来某个时间点,99.9999999%的可能,会做出杀死某人B。那么,在A杀死B之前,他到底有没有违法??我们有没有资格抓他?
以现有的道德理论来说,我们无权抓他,那么,对于B来说,一个接近于100%会杀死自己的人,在无时无刻想着杀自己,而法律与道德却无动于衷。法律何在?人心道德何在?
若我们决定抓他,那么对于A来说,我仍然是有0.0000001%的可能是无辜的,你们凭什么以我未来可能会做某事而抓我?
人工智能在企业应用中的道德规范
人工智能在企业应用中的道德规范
AI是指智能水平不亚于甚至超过人类的软件产品,也称为“强AI”。但上述新项目对AI的定义还包括补充或取代人类决策的机器学习和数据驱动算法。
例如,有证据表明,当黑皮肤的使用者把手放在传感器上时,某些自动皂液器不起作用。这些系统由开发人员用自己的手进行测试,但没有在肤色不同的用户身上进行测试。这个例子说明人类创造的算法会按照开发者的观点和偏见行事。
有多少首席执行官真正知道他们的公司如何获得和使用AI和AI算法?
人工智能(AI)越来越多地被用于企业应用,它可以通过解析数据来获得对客户和竞争对手的有用洞见,从而提供竞争优势。但还有一个并行的趋势:评估AI和企业AI算法的道德影响。
就在去年,麻省理工学院(MIT)和哈佛大学共同开展了一个探索AI道德规范的项目,耗资2700万美元。最近,谷歌在2014年收购的英国私企DeepMindTechnologies组建了一支新的研究团队,致力于研究AI道德规范。近期其他的AI道德规范项目包括IEEE全球人工智能和自主系统道德考量计划、纽约大学AI Now研究所和剑桥大学Leverhulme未来智能研究中心。
AI道德规范为什么如此令人感兴趣,这对企业组织意味着什么?
最近发生的灾难性品牌名声受损和舆论抨击揭示了将AI部署到企业中可能伴随的道德、社会和企业风险。
AI的定义
一些专家坚持认为,AI是指智能水平不亚于甚至超过人类的软件产品,也称为“强AI”。但上述新项目对AI的定义还包括补充或取代人类决策的机器学习和数据驱动算法。
如果接受后面这个更广泛的定义,那么我们必须认识到,AI多年来就已经是电脑时代的特征。如今,在大数据、互联网和社交媒体时代,使用人工智能带来的许多优势已经广为人知,受到普遍认可:人工智能可以为企业提供竞争优势、提升效率、洞悉客户及其行为。
运用算法来发现数据中的重要模式和价值,这几乎被一致认为是价值创造的省钱途径,特别是在市场导向的竞争环境中。但AI道德规范项目的兴起证明,这些看似有利的AI应用可能会适得其反。最近发生的灾难性品牌名声受损和舆论抨击揭示了将AI部署到企业中可能伴随的道德、社会和企业风险。
企业组织应该仔细思考他们使用AI的方式,因为这也会带来商业风险。
企业如果未能发现AI算法或机器学习系统开发人员的潜在偏见,就可能会将企业中所有利益相关者的偏见系统化。
人的偏见和歧视
AI算法和我们用来训练这些算法的数据集通常来自人类。因此,这些算法不可避免地反映了人的偏见。例如,有证据表明,当黑皮肤的使用者把手放在传感器上时,某些自动皂液器不起作用。这些系统由开发人员用自己的手进行测试,但没有在肤色不同的用户身上进行测试。这个例子说明人类创造的算法会按照开发者的观点和偏见行事。
这些偏见通常是无意的,但无论造成的后果是否有意为之,犯下上述错误的公司都会面临潜在风险。更重要的是,不管有意还是无意,人造算法可能固有的人类偏见在很大程度上逃避了审查,从而导致使用AI的企业面临风险。
企业如果未能发现AI算法或机器学习系统开发人员的潜在偏见,就可能会将企业中所有利益相关者的偏见系统化。这会使企业面临品牌名声受损、法律诉讼、舆论抨击的风险,还可能失去员工和客户的信任。
企业应该为自己和社会所做的是否不仅仅是遵纪守法?企业能否自信地说自己对AI的使用是公平的、透明的、对人类负责的?
AI的广泛应用和风险
存有偏见的皂液器只是一个例子,AI算法还可以用于招聘、量刑和安保行动。它们是社交媒体正常运行或不正常运行的内在因素。
简而言之,AI被用于无数的日常和专业工作。它正变得无处不在,它对企业的潜在风险也是如此。我们面临的挑战是理解算法如何设计和审查,以避免开发者的观点和偏见(不管是有意还是无意)。这提出了具有挑战性的问题。
有多少首席执行官真正知道他们的公司如何获得和使用AI和AI算法?(许多公司与第三方AI解决方案提供商合作。)
企业尽职调查是一项法律要求,这是否包括审查企业如何生成和使用AI应用程序?对于使用AI的企业来说,尽职调查和合规性的法律定义是否全面?道德规范和企业责任的传统概念是否适用于此?
企业应该为自己和社会所做的是否不仅仅是遵纪守法?企业能否自信地说自己对AI的使用是公平的、透明的、对人类负责的?
想要回答这些问题,企业必须审视和阐明自己在企业道德方面的立场,并运用系统性方法来评估风险。
助长趋势
两个趋势可能加剧对AI应用和AI用户进行风险评估的紧迫性和重要性。首先,消费者、公民和政策制定者越来越重视和担心人工智能的日益普及和可能造成的滥用或意外后果。由此产生的结果是,透明度,公平性和问责制作为竞争优势得到了更多关注。
最终,我们希望能够确定重要的价值观,将它们嵌入到AI算法的设计中,了解相关风险,继续验证个人、企业和社会在AI实践方面的有效性。
行动号召
解决这些问题的第一步是意识。你的公司如何使用AI,谁可能受到影响?是否需要聘请外部专家来进行评估?
阐明你公司的核心价值观也很重要。你使用AI的方式是否符合那些价值观?如果不是,如何才能让二者相符?
有资源可以帮助解决这一问题。例如,我是IEEE全球人工智能和自主系统道德考量计划的执行成员,该计划致力于研究各种AI相关应用的最佳实践,提供有助于加强这方面认识和决策指导的资源,制定AI应用的标准。(IEEE是指电气与电子工程师协会,是最大的技术专业组织,致力于推动技术发展,造福人类。)
一个重要的资源是该计划的“符合伦理的设计:人工智能和自主系统优先考虑人类福祉的愿景”。这份文件已发布第二版,鼓励技术人员在开发自主和智能技术的过程中,把道德考量放在优先位置。
该计划与IEEE标准协会展开了密切合作。最近,IEEE标准协会开始制定儿童和学生数据治理、雇主透明实践和人类介入式AI的标准,确保由人类价值观来引导影响我们每个人的算法开发。
最终,我们希望能够确定重要的价值观,将它们嵌入到AI算法的设计中,了解相关风险,继续验证个人、企业和社会在AI实践方面的有效性。
请放心,这是一个新兴的话题,本文表达的担心和目标仍然是人们积极研究的领域。然而,想要在AI时代成为对社会负责任的企业,企业领导者必须意识到问题所在,开始识别企业价值观,将之嵌入到AI应用程序的道德设计中。
人工智能会带来哪些伦理问题
人工智能技术对人类伦理的挑战是前所未有的,是全方面多领域的冲击,涉及伦理道德、法律、哲学、社会学等各个领域。在伦理方面,人工智能不仅破坏了传统的人伦关系,引发了一些列的伦理冲突,而且还涉及到人的尊严和命运。因此,人类必须慎重对待,不断地反思,积极地做出回应。
人工智能带来的伦理问题
(一)人的隐私权受到极大威胁
隐私权作为一项基本人权虽然在宪法中没有明确规定,但在民法中受到极大的保护。隐私权简单来说,就是指自然人享有的私人生活空间和个人信息秘密不被打扰和侵犯的权利。然而,以大数据为依托的智能时代下使得人的隐私权陷入了风雨飘摇的境地。在智能时代下,我们生活中的方方面面都被详尽地记录下来,各种数据采集和分析系统能够随意地收集我们的个人信息,如姓名、年龄、家庭住址、联系方式等。诚然,法律在保护人的隐私权方面具有重要作用,但单纯保护隐私权就会使得隐私权与网络安全之间出现矛盾。因此我们必须要考虑在智能时代下应当确定怎样的伦理规则来保障人的隐私?如何协调隐私保护与社会监督之间的矛盾?这些问题都将对隐私权造成极大威胁。
(二)冲击婚姻家庭伦理关系
人工智能技术的发展,人形智能机器人的研制不断突破。相关研究表明,到2050年人行智能机器人将变得和真人一样。当大量的人形智能机器人进入人类的生活,扮演着各种角色,如以保姆、宠物、情人等身份进入不同的家庭。长此以往,人与智能机器人之间会不会产生感情?会不会产生利益纠纷?不管如何,这些都会对传统的人伦关系、家庭关系造成各种冲击。
(三)人的本质面临巨大挑战
智能技术和生物技术的结合发展使得对自然人本身的认知发生巨大改变。人的自然身体面临着智能技术的“改造”,而人所有的思维、创造力、情感正在被机器人获得,人机交互、人机结合成为未来趋势。机器人具有思维能力已成为共识,智能技术的发展产生具有自主意识的智能机器人成为可能,那么人类的本质问题就面临着挑战,这就需要重新确定人机关系的伦理原则。
人工智能时代的伦理道德面临哪些挑战?
数字信息技术使几乎任何人、任何时间、任何地点都能轻易获得信息。这对我们社会的各个方面,从工业生产到分配、到商品和服务的消费,都产生了深远的影响。就像之前的技术革命一样,数字信息技术的影响如此广泛,我们不再只是简单地利用它——做我们以前做过的事情——而是通过改变我们的行为方式来适应它。
今天,数字信息技术已经重新定义了人们如何与他人进行社交互动,甚至如何找到伴侣。消费者、生产者和供应商、实业家和劳动者、服务提供者和客户、朋友和合作伙伴之间重新定义的关系,已经在社会上造成一场剧变,正在改变后工业时代对道德理性的定义。
我们正站在下一波科技革命的风口浪尖:人工智能。20世纪晚期的数字革命将信息带到了我们的指尖,让我们能够快速做出决定,而机构做出决定,从根本上说,取决于我们。人工智能正在通过自动化决策过程来改变这一状况,它有望带来更好的定性结果和更高的效率。人工智能游戏系统在击败国际象棋世界冠军卡斯帕罗夫(Gary Kasparov)和围棋世界冠军柯洁(Ke Jie)方面取得的成功,突显出人工智能在计算当前决策对潜在未来棋步的影响方面,在质量方面优于人类专家。
然而,在这个决策过程中,人工智能也带走了人类行为的透明性、可解释性、可预测性、可教性和可审核性,取而代之的是不透明性。这一举动的逻辑不仅不为参与者所知,也不为程序的创造者所知。随着人工智能为我们做出决策,决策的透明度和可预测性可能会成为过去。
想象一下这样的情景:你的孩子回家找你,要求你给她零花钱,让她和朋友一起去看电影。你允许了。一周后,你的另一个孩子带着同样的要求来找你,但这次,你拒绝了。这将立即引起不公平和偏袒的问题。为了避免受到偏袒的指责,你要向孩子解释,她必须完成家庭作业,才有资格获得零花钱。
没有任何解释,家里一定会有紧张的气氛。现在想象一下用一个人工智能系统取代你的角色,这个系统已经收集了成千上万个处于类似情况的家庭的数据。通过研究其他家庭的零花钱决定的后果,得出结论,一个兄弟姐妹应该得到零用钱,而另一个兄弟姐妹不应该。
但人工智能系统无法真正解释其中的原因,只能说它衡量了你孩子的头发颜色、身高、体重以及其他所有它能获得的属性,以便做出对其他家庭似乎最有效的决定。那又怎么会有效呢?
在法庭上,过去的判决约束法官遵循先例,即使情况不完全相同,但大致相似。一致性在司法、政府、关系和道德规范中都很重要。AI没有遵守先例的法律要求。人类往往只有有限的直接或间接经验,而机器可能可以访问大量数据。
人类无法在一个长期的时间尺度内筛选他们的经历,而机器可以很容易地做到这一点。人类会排除那些被认为对决策无关紧要的因素,而机器不会排除任何因素。这可能导致不尊重先例的决定,其规模之大是人类可以理解的。随着企业和社会迅速转向人工智能,人工智能实际上可能比人类在更长的时间范围内做出更好的决策,而人类在更短的时间范围内就会感到困惑和沮丧,并侵蚀一个正常运转的社会的唯一货币,信任。
要理解基于人工智能的决策可能有多人工,研究人类如何做出决策是很重要的。人类的决策可能由一组明确的规则,或者仅仅基于结果论的关联,或者由组合来指导。人类对于与决策相关的信息也是有选择性的。由于缺乏选择性,机器在做决定时可能会考虑人类认为不恰当的因素。
有无数这样的例子,从微软(Microsoft)在其聊天机器人Tay开始在Twitter上发表煽动性反犹太言论后关闭它,到波士顿大学(Boston University)的一项研究,该研究发现“老板”(boss)、“建筑师”(architect)和“金融家”(financier)等词与男性、“护士”(nurse)和“接待员”(接待员)等词与女性之间存在性别关联。这可能是数据造成的,但它与我们的显式值形成了对比。如果数据驱动的过程依赖于这些人工智能算法生成的输出,它们将产生有偏见的决策,往往违背我们的道德价值观。
ProPublica在2016年提供了明显的证据。美国法院使用的一种电脑程序错误地将两年之内没有再犯的黑人被告标记为“惯犯”,其再次犯案的可能性几乎是白人被告的两倍——前者为45%,后者为23%。如果一个人也这么做,就会被谴责为种族主义者。人工智能揭示了我们明确的价值观和集体经验之间的分裂。我们的集体经验不是一成不变的。它们是由重要的社会决定所决定的,而这些决定又由我们的道德价值观所指导。我们真的想把决策过程留给那些只从过去学习、因而受制于过去的机器,而不是塑造未来的机器吗?
鉴于人工智能在医疗诊断、金融服务和就业筛查等领域的应用规模之大,任何一个偶然事件的后果都是巨大的。随着算法越来越依赖于提高可预测性的特性,控制这类决策的逻辑变得越来越不可思议。因此,我们失去了决策的全局性,抛弃了所有的原则来支持过去的观察。在某些情况下,这可能是不道德的,在某些情况下是非法的,在某些情况下是短视的。“惯犯算法”公然藐视无罪推定、机会均等等原则。
一致性是道德和正直不可或缺的。我们的决定必须遵循一个高于统计准确性的标准;几个世纪以来,相互信任、减少危害、公平和平等的共同美德已被证明是任何推理系统生存的基本基石。没有内部逻辑的一致性,人工智能系统缺乏健壮性和可问责性——这是在社会中建立信任的两个关键措施。通过在道德情感和逻辑推理之间制造裂痕,数据驱动决策的不可知性阻碍了批判性地参与决策过程的能力。
这是我们生活的新世界,复杂的决定被削减成反射性的选择,并被观察到的结果所强化;把复杂的东西简化成简单的东西,把道德简化成实用的东西。今天,我们的道德感为我们的决策提供了一个框架。也许不久之后,我们的决定就会让人们对我们的道德产生怀疑
如何培养AI的道德观?
你说AI有道德观吗,其实是没有的。
如果还是出于初步的学籍阶段,还是需要人工去做一些设定等等。
如果是相对来讲是自我学习的过程了,应该就不会往坏的方向去走。
其实人工智能方面本来就是一个数据培养的过程,也可以说人工智能是数据喂养出来的怪兽。
于是为了培养人工智能的道德观,就一定要做大量的大规模的数据采集。
可能大一点的公司,比如国际或者国内的知名大型企业,通过将自己的算法公示,让更多的人来使用。
这个时候就会成为人工智能数据采集的来源,从以往的情况来看,人工智能是不现实的。
因为之前的人工智能没办法去采集数据,就连现在有些偏远的地区还是没有数据采集设备。
这个设备也就是大家所熟知的比如什么手机,比如摄像头等硬件设备。
那么人工智能的道德观其实是不应该去刻意限定的,因为在现有的条件中,只要是我们自己的道德观正确了,而数据量又足够大是可以影响到人工智能的。
那如果我们自己的道德观都发生偏差了,人工智能所做的决策也不能符合我们的心意了。
如果是在初期,人工智能还不是那么聪明,稍加限制也是未尝不可的。
人工智能的第一美德是什么
人工智能的第一美德是正义。
人工智能AI的四个基本美德,即正义,诚实,责任和关怀,所有这些美德都代表了特定的动机设置,这些构成了AI领域进行道德决策的前提。
人工智能AI的两个二阶美德:审慎和坚韧,通过帮助克服有限的道德规范或损害道德决策的许多隐藏的心理力量来支持实现基本美德,而这些力量目前已被AI道德准则完全忽视。
自主系统需要道德准则
道德准则越来越受到人们的重视。例如,测试中的无人驾驶汽车需要能够对潜在的危险情况做出判断。当一只猫突然穿过马路时,它应该如何反应?是应该不管猫的死活继续前行呢,还是要急转弯以免对猫或者车上的乘客造成伤害?
所以在设计无人驾驶汽车时需要设计一些具体的原则来指导其决策。正如维吉尼亚·迪格纳穆在墨西哥举行的国际人工智能联合会议上发表“自主系统需要责任感”。
双重效应的名称来源于处理道德问题过程中会获得好的效果(例如拯救某人的生命)以及不良影响(在过程中伤害他人)。它可以为无人驾驶汽车在道路行进过程中出现的问题提供一种道德准则。
结语:以上就是首席CTO笔记为大家介绍的关于人工智能的道德反应有哪些的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。