导读:很多朋友问到关于人工智能犯错后如何纠正的相关问题,本文首席CTO笔记就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!
人工智能的利与弊分别是什么,该如何看待?
人工智能的出现并非偶然,他是时间推移诞生的智慧产物,是一个时代的财富,而这个财富到底是利于大多数人,还是为小部分人谋求福利和财富,这个是需要思考清楚的,因为各种各样的事情都有边界。 如果触犯了,他自然就会违背规则。首先他的一个宗旨是让人们的生活越来越好,让人们的工作变得越来越便捷。是他不能破坏之前的一个生态体系。不能够让很多人隐私得不到保障。根本的原则就是人工智能不能触犯的道德底线和法律底线。
细节确实很多,话说你一下子能够都规定出来,但是人工智能确实给各行各业都能够造成很多的好的影响,也能造成坏的影响,这个是在很多的一个过程中需要权衡的。例如机器人到底需要多少意识? 它到底能不能有很多人类的很多的一些行为和意识,形成自我判断和自我控制。例如婚姻,例如生小孩还例如伴侣。如果能够解决那就触犯了一些底线。例如可以自己做出一些决定。自主化意识!
所以人工智能到底能够开发多深层次,这个是最关心的,那么目前在 人工智能方面已经对一些岗位有了冲击,甚至很多岗位进行了替代,所以人力成本都在降低,很多人被迫需要转行业,在进行择业! 这就是现实的问题!
那么接下来 人工智能到底在国家层级能够得到多少的授权,这个就是很重要了。当然人工智能也辅助我们解决了很多实质性的问题,例如这次新冠的药物研究,阿里的ai技术就在推波助澜! 所以给人们带来了危机感,也带来了深度的思考。同时人工智能的出现也确实让我们的生活、工作等方面得到了很多便利,例如人工智能加入了智慧交通、智慧校园、智能医疗领域做出的成绩都是显而易见的!
人工智能的辅助驾驶到最终实现无人驾驶、人工智能到家庭里的智能家居,根据感应系统、语音系统、以及温度情况,自动调节温度、亮度以及定时控制等体系,让人们极大的享受了便利,而且打扫房间都有扫地机器人来干活了!
而工作领域虚拟机器人、虚拟我都让媒体行业发生了很大的改变、而随着人工智能的出现,智能抓拍智能捕捉技术应用到交警道路管理,通过无人机也实现了很多应用层级的卓越成果!当然大到无人车间、精密的螺丝切割冲压等技术的应用,也让做出的产品越来越细致、越来越有质感!
您好!很高兴回答您的问题!
1956年人工智能的概念就诞生了,在经过了一次次的高潮和低谷,人工智能在近几年突然实现爆发式崛起。在以往的科幻电影中,那些看似天马行空的人工智能机器人,在不久的将来就要成为现实了。可能大家觉得人工智能还有些遥远,殊不知人工智能的应用早已渗入日常生活的方方面面,与此同时,人工智能也给人类带来了一些弊端,下面我们就来深入分析一下人工智能的利与弊。
利:
1、人工智能给人类生活带来许多便利。
例如,人工智能的医疗应用,现在已经惠及大众。不是每个医生都有最新治疗方案和方法,也不是每个医生都可以了解所有医学例案。但是人工智能就可以,它能够在短时间内分析大量数据,精确判断病症,并找到最佳的治疗方案。这意味着人工智能可以为人们提供最好的治疗。在无人驾驶领域,人工智能的应用,不仅减轻了人们的负担,更是大大降低了事故率。再比如说,如今苹果系统的SIR手写版系统、生物识别系统都是人工智能的应用,都让人类的生活质量得到显著提高。
2、人工智能推动 社会 进步。
人工智能应用后,各行业的生产效率大幅提高,人类财富以几何形式快速增长,为人类的美好生活提供了坚实的物质基础。人工智能将人类从重复的、无意义的工作中解放出来,从高危险的工作中解放出来,让人有了更多选择的自由,从而把更多精力投入到更有意义的领域中去。人工智能也让人类突破得以发展的瓶颈。例如,人工智能可以 探索 外太空、山海冰河这些人类无法企及的地方,可以让复杂的大数据得到高效的分析与合理的运用,让人们 探索 到更深层次的知识。所以人工智能使人类超越了自己本身的局限,实现了人类的进一步解放。
3、人工智能推动了人类的理性进步。
人类的理性进步反过来也可以促进人类的发展。人工智能研发过程的本身就具有研究人脑认知与功能的需求和特性,而使人类在这个过程中就学习了学习的方法,从而增强人类的逻辑思维能力。人工智能更新了人类应对问题的方法,比如依靠大数据的分析,沃森医生可以提供对病人伤害最小的、全新的治疗手段和技能范围。比如,从而丰富人类应对各种问题的方法。人工智能也拓宽了人类知识技能范围,比如,人工智能根据对大数据分析得到各种新知识、新信息,使人们难以预测的洪水、地震等灾害的预报的精确程度大大提高,使人类在自然面前的约束变得更强大。
弊:
1、体力劳动性的行业面临大规模失业的风险。
据2018年人力资源和 社会 保障部新闻发布会介绍,2018年末中国失业率达4.05%机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
2、人类的精神生活退化。
人工智能机器是没有感情的。如果此刻你的身边,你的同学,你的朋友,都是人工智能机器人,你会受得了吗?现在的 社会 ,是一个物质的 社会 ,但更是一个精神的 社会 ,如果人工智能机器人越来越多,这个世界将没有感情,没有喜怒哀乐,到处都是冷冰冰的,没有艺术,没有精神食粮,到处都是机械化的。
3、人工智能机器人具有很大危险性。
比如电影《我与机器人》便描述了一个机器反而要消灭人类的悲剧。早在2015年,德国大众的一家 汽车 制造工厂,一个机器人误杀一名外包公认。而作为人工智能发展大国——日本,至今为止,已经有20人死于机器人误杀事件,而有高达8000的人数被机器人致残,而如果一旦人工智能机器人落到恐怖分子的手里,那后果将会更加不堪设想。
以上就是人工智能给人类带来的利与弊分析。总体来说,人工智能带来的颠覆性技术,更多的是利大于弊,推动人类 社会 的发展和进步。现在也是人工智能发展的红利期,想要从事一份高薪有前途工作的小伙伴,不妨考虑一下人工智能行业,事业发展前途一定远远超过传统行业。
AI代替人类思考,AI给人类带来新的思考。
AI是人类有史以来,发明的第一个代替自己思考的工具。但这个工具的设想出现的时候,已经让人类开始思考一个问题:AI是否会代替人类?
毕竟人类一直认为,自己和动物的区别在于,人类会思考。而AI也会思考。
工具论
如果AI能够老老实实地,安分守己地,只是做人类的工具。那对人类的价值,是非常巨大的。
人类懒得思考的,AI来。人类没时间思考的,AI上。
进化论
但人类不得不问自己一个问题,如果AI能思考出人类无法思考的问题,该怎么办?
我们看到狗狗,觉得它是我们的宠物。因为它呲牙就是愤怒、摇尾巴就是求宠爱。它不会思考星星为什么晚上能看见,四季为什么会交替, 汽车 为什么会跑。
但AI未来也许会。
或许未来人类会和AI结合,进化出更高级的人类。
淘汰论
如果AI的思考已经远远超过人类,为什么它还会甘于为人类服务呢?
人类就好像一个愚蠢的老板,真的能管住一个在智力方面远远超过自己的员工吗?
或许,AI才是那个胜利者。
熟悉围棋的人知道,AI诞生后,人类对于AI的每一步,都只能试图去理解。因为AI的计算已经远远超过了人类的理解能力。达到了即便告诉人类自己下一步要走什么,人类也无法真正理解的地步。
如果,不仅仅是计算能力呢?
随着 社会 与 科技 的快速发展,人工智能也进入了高速发展的轨道。人工智能确确实实地给我们生活带来了很多的便利。不仅仅是从我们日常的衣食住行上有着很好的体现,而且在我们日常的安全防范领域、 娱乐 领域、甚至是科学研究领域,都在慢慢地和我们接轨。就在人工智能高速发展的同时,人类也开始担忧,在未来,人工智能倘若按这个进度发展下去。它会不会完全取代人类。在当下的网络中,太多的人在吹捧人工智能。那么,人工智能到底是好还是坏?而人工智能这把双刃剑的利与弊是什么?
人工智能给人类带来的利端:
1、带来更高的的商业价值
人工智能在数据集上有着一定的优势。目前的观察来说,人工智能有三大商业方向。一个是大数据的统计,第二个是对用户情绪的一个评估。第三个则是与用户之间的社交纽带。人工智能通过这三大商业方向,可以更好地了解人类。同时也可以创作出更好的软件,以此来给更多的人带来快乐。而在未来,可以增加客户体验,给客户带来快乐的企业,将会赚取更多的商业价值。
2、带来更多的就业机会
就好像人类从工农业时代进化成为现代化工业的时代一样,现代化工业时代已经给更多的人带来了新的就业机会。就好比互联网行业,解决了上千万人的就业问题。虽然很多人会认为,随着人工智能的发展,无人 汽车 开始慢慢普及。更加多的智能工作流程技术也在快速发展,那么会不会在此前提下大部分的工作都会被人工智能所取代。殊不知,人工智能虽然在取代大部分工作,但是同时也创造了更多的工作环境和更多的工作机遇,就好像目前大部分从事人工智能领域的人士,年薪百万也不在少数。
3、给人类带来更加美好的生活
自从有了人工智能后,各个行业,各个领域的工作效率有着很显著的提高。人类的整体财富也在指数型的增长。在此为前提下,人工智能不仅给人类的生活打下了坚实的物质基础,更是把更多的人从简单烦躁而重复的工作中,解放出来。让我们更加自由地去做更多的事情。不仅如此,人工智能在医疗上也起到很大的帮助。很多医生都不能确定的病情,人工智能可以通过它的大数据进行分析和理疗。再好比当下的人工智能无人 汽车 。在技术保障的前提下,这不仅大大降低了事故发生率,还节省了驾驶人员大量的驾驶时间。
人工智能给人类带来的弊端:
1、人才分化,贫富差距弊端
人工智能带来的人才分化极端。将会引起未来的人才争夺战。而 社会 上更多一流的人才将会偏向一边,相对资金比较薄弱的企业或者个人,将会遭受到大规模的失业。在这种情况下会导致企业巨头的垄断,以及贫富差距的分化将会非常严重。
2、带来更加频繁的战争
人工智能机器人的产生,还有一个最可怕的弊端,当人工智能被大量用武器中,未来的战争将不会大量使用到人类,而当战争不再使用到真人,从道德的角度去考虑,人工智能的战争不会受到太多的批评,随之而带来的,将会是更多的机器兵团战争。
3、带来潜在的危险性
早在2015年,德国大众的一家 汽车 制造工厂,一个机器人误杀一名外包公认。而作为人工智能发展大国——日本,至今为止,已经有20人死于机器人误杀事件,而有高达8000的人数被机器人致残,而如果一旦人工智能机器人落到恐怖分子的手里,那后果将会更加不堪设想。
在我们生活中,几乎所有的东西都有利弊,人工智能也一样是一把双刃剑,对待人工智能未来的发展,我们不仅要以乐观的态度面对,而且我们还要对这个时代有信心,对人工智能相关研发人员有信心,因为俗话说得好,邪不压正!
人工智能的利是便捷了人们的生活、工作和学习进一步的推动了 社会 的发展和经济的多样性,人工智能的弊是让一些人们有了懒惰、推诿的理由。
人工智能(AI)技术的发展是 科技 与时代的象征,工业革命时代、信息化时代等等只不过现在逐步走向人工智能时代,我们要清楚的认识到AI只是一种工具是用来辅助我们的生活的,在未来人工智能的应用场景将会全面覆盖我们的生活,就像现在的手机现在的网络一样。多元化的应用场景使得AI有更多的数据可以分析从而得出更加完善的 社会 数据模型,通过这些数据模型我们可以优化我们日常行为以及生活和工作习惯以至于更加的高效、便捷。
对待人工智能我们要以开放、包容的态度,不可以因为AI替代了一部分劳动力就给它带上造成失业的大帽子, 社会 在进步 科技 在发展任何新技术、新产品都终将服务于 社会 大众。
人工智能的优势是巨大的,可以革新任何专业领域。
它的一些好处包括:
让我们仔细思考一下
一、 减少人为造成的错误
在人工智能模型中,所有决策都是在应用了特定算法集之后从先前收集的信息中得出的。因此,减少了错误,并且以更高的精度仅增加了准确的机会。
二、 可以24小时 7天工作
虽然一般人每天要工作6-8个小时,但AI设法使机器24 7正常工作,没有任何休息或无聊时间,最重要的工作起来不会偷懒还不用发工资,这是资本家的完美梦想啊。
三、有助于重复性工作
AI可以高效自动化进行一些人的任务,并释放越来越创意的想法,直接发送感谢的邮件,或验证文件整理归纳或应答查询。
四、数字协助
许多高级组织使用数字助理与用户进行交互,以节省人力资源。这些数字助理还用于许多网站中,以回答用户查询并提供一个流畅的功能界面。
五、更快的决定
人工智能以及其他技术可以使机器比一般人更快地做出决策,从而更快地执行动作。这是因为,在做出决策时,人类倾向于在 情感 上和实践上分析许多因素,与之相反,人工智能驱动的机器可以快速提供编程结果,它非常专注。当然如果说好处还有非常多的举例,但这些是人工智能比较典型的优势。
—————
与任何新兴技术一样,人工智能也有其应有的缺点弊的一面,例如:
很不幸这是我们必须要面对的
一、费用超支
什么正常的软件开发分离AI是其经营规模。这种规模的结果是,所需的计算资源将成倍增加,从而推高了操作成本,这使我们进入了下一个阶段。
二、人才的培养
由于这仍然是一个新兴领域,因此缺乏经验丰富的专业人员,而最佳人才很快就被公司和研究机构抢购。这增加了人才成本,进一步推高了人工智能实施的价格。
三、缺乏实用产品
尽管围绕AI的所有宣传都没有太多可展示之处。当然,确实存在诸如聊天机器人和推荐引擎之类的应用程序,但是这些应用程序似乎并没有扩展。硬件与软件的结合还处于一个非常不稳定的时期,这使得很难有理由投入更多资金来改善AI功能。
三、缺乏软件开发标准
当不同的AI系统汇聚成一个更大,更有价值的应用程序时,人工智能的真正价值在于协作。但是,人工智能软件开发中缺乏标准,这意味着不同的系统很难彼此“交谈”。因此,人工智能软件开发本身既缓慢又昂贵,这进一步阻碍了人工智能的发展。
四、滥用的可能性
人工智能的力量巨大,它有潜力成就伟大的事物。
不幸的是,它极也有可能被滥用,在这个胡乱的世界各自为战的国家体系中,想起这个问题真的是很挠头,成也萧何败也萧何的结果出现的概率非常大,人工智能本身是可以用于任何事物的中性工具,但是如果落入错误的人手中,它将产生严重的影响。
在这个还没有完全理解AI发展的后果的新生阶段,滥用的可能性可能更高。
科学技术的发展趋势无人可以阻挡,也许人工智能会帮助人类创意地解决弊端的一面,还未可知,就让神秘刺激的未来去自动完成吧!
人工智能的未来与担忧
霍金还有许多科学家,认为,人工智能就是人类 科技 最后一块阵地。科学界还认为,人类 科技 继续发展,已经遇到了瓶颈,但是如果人工智能,能够帮助人类突破这个瓶颈,那么人类能否迎来辉煌的时刻。
可是霍金等科学家却警告,人类要控制人工智能的发展,担心人工智能发展到一定程度,人工智能觉醒后把人类消灭了,因为到那时,人类不是人工智能的对手。
然而霍金还说,人类要争取在几百年内, 科技 能够达到离开这颗星球的能力,因为这颗星球资源和能源迟早会用完,人类如果没有资源和能源,人类继续发展也就终结了。
更可怕的是,人类所在的这颗星球,已经被人类的过度开发,生态环境已经遭到了严重破坏,最后变得不适应生命存在。还有太阳迟早会燃烧殆尽,到那时,地球进入冰河时代,那时地球上的所有生命将不复存在。当然这颗星球,还包括不确定的更多的更大的潜在危险。
霍金说人工智能是人类 科技 的最后一块阵地,哪是否意味着,人类阻止、限制人工智能的发展,人类 科技 也就停止不前了。如果是这样,霍金警告的人类要在几百年内具备离开这颗星球的能力,不就成为了一句空话吗?而霍金又警告,人类要限制人工智能的发展,这不是矛盾吗?
好处:1.人工智能让人类生活更美好。例如医疗应用、无人驾驶、生物识别系统等技术让人类的生活质量得到显著提高。
2.人工智能推动 社会 进步,实现人类进一步解放。人工智能应用后,各行业的生产效率大幅提高,人类财富以几何形式快速增长,为人类的美好生活提供了坚实的物质基础。
3.人工智能推动了人类的理性进步,可以促进人类的发展,增强人类的逻辑思维能力。
坏处:1.全方位高度发展人工智能对人类发生异化作用。对人类进行反控制,违背人的意愿,从而成为奴役人、支配人的与人相对立的异己力量。
2.人工智能的发展将颠覆许多行业。代替许多人类的工作将导致大量的人口失业。
1、人工智能的利
目前人工智能已经为人类创造出了非常可观的经济效益,人工智能可以代替人类做大量人类不想做、不能做的工作,而且机器犯错误的概率比人低,并且能够持续工作,大大的提升工作效率。
节约了大量的成本,未来的人工智能可能还会代替人类工作,代替人类做家务,帮助人类学习,甚至可以照顾老人和小孩,实时监护人类的 健康 ,生病了直接给人来治疗,延长人类的寿命,让人类的生活变得越来越美好。
2、人工智能的弊
霍金曾发出警告,人类面临一个不确定的未来,先进的人工智能设备能够独立思考,并适应环境变化,它们未来或将成为导致人类灭亡的终结者!如果真的有一天,人工智能机器人变成了能独立思考,独立的做出准确的判断,一旦有一天人工智能反客为主,到时人工智能对于人类将会是毁灭性的灾难。甚至被人工智能消灭。地球将被人工智能统治。
当人工智能处于一个低级阶段的时候,人类可以让人工智能来代替人类进行一些需要基本思考的工作,比如记账,审计,阅读,还有风险更低的体力劳动,毕竟现在由纯机器操作的工厂还是有一定事故发生率的,而人工智能是可以通过自己分析预判来减少风险的。
虽然可能会带来大量的失业,但是这本来就是 社会 前进必须经历的过程,当新技术被发明出来时一定会影响某些群体的既得利益,然而只要这个前进的方向是对的,也就无可厚非了,毕竟被取代的是所需能力不高的工种,只能怨自身没有什么不可替代的价值了。
人工智能是趋势,目前只有弊,就是太不智能
人工智能必然会出错
这个标题源于无人驾驶和人工驾驶交通事故率的对比,我们对二者的态度是不同的。我们可以容忍人类犯错,却不能允许机器人犯错,这样对吗?
人类是不完美的,同样,人工智能也不会是完美的,我们要接受人工智能也会出错的事实。
首先来说人类的各种问题,作为大自然进化的产物,人类是不完美的,表现为疾病,有身体上的,还有精神上的,还有混合的。疾病是大自然在设计人类的时候产生的瑕疵。同理,机器人是人类设计的,也会出现各种“疾病”,根据我目前的观测,人类的设计水平还远远不如大自然。那么,大自然设计的人类都会有疾病等各种问题,那么,人类凭什么要求自己设计的机器人是完美无瑕的呢?
你的回答可能是,机器人的结构是简单的,因此可以不出错。
真的如此吗?软件开发是首先实现功能,然后再通过不断地迭代来逐步完善,大自然也是这样设计人类的。那么,假设一个已经拥有几万个模块的人工智能程序,需要新增几百个心模块,你如何保证这些模块之间是完美匹配的?就不会存在互相矛盾,或者功能有重叠的吗?你使用什么方法,可以验证每一个模块之间是否完全契合,而不是产生冲突?那么三个模块之间,四个模块之间,更多模块之间呢?你可以说,上线之前我已经验证了,没有问题。那么,你利用测试数据进行的验证,真的覆盖了所有可能吗?测试的情况,完全覆盖了所有现实情况吗?人的胃可以消化所有的食物,有时候却可能消化自己,导致胃溃疡。如何保证人工智能的某一组模块不会吞噬自己呢?
机器人的软件也是在硬件的基础之上运行的,硬件和现实环境会接触,进行各种物质交换,如果有一种物质进入机器人体内,导致电路发生改变,出现了异常的行为,这可以完全避免吗?
人类是不完美的,人类的能力是有限的,不如教会机器人如何学习之后,就让它们自己进化,允许它们出错。就像《西部世界》里罗伯特·福特所说的那样,人类就是通过不断地犯错才进化成现在的样子的。同样如此,如果不犯错,机器人如何进化呢?人类凭什么觉得自己比大自然还厉害,可以设计出完美的,不会出错的系统?这种想法,是不是太狂妄了?
因为人类是不完美的无法超越大自然,所以也必然设计不错完美的不会出错的人工智能。所以,不如接受这个现实,人工智能必然会出错,就像人类会生病一样,没必要大惊小怪。
机器人会出错生病怎么办?只要赋予它们一定的“免疫力”,还有自我修复能力,允许它们纠错,我觉得这可能是一个不错的开始。
人工智能的进步在于能犯和人类一样的错误还是不犯和人类一样的错误
本来错误就是一个定义而已,一个孩子打碎了玻璃看似错误,但如果打碎玻璃是为了救人,或许这种答案就变成了另外的含义。
所以说人工智能的进步和人类是一样的,对于错误的定义并不能成为人工智能进步的唯一标准。在通过学习的过程中不断克服错误,人工智能同样也可以通过自动学习完成对错误的克服。
人工智能的发展,到了今天。可以判断什么是对,什么是错。比如今天我们回答问题。都通过各种方式。
你觉得计算机会算错吗?你见到过人工智能犯错吗?
计算机和人工智能当然有可能犯错,而且一旦犯错,往往会导致巨大的危险。
假如一辆自动驾驶的汽车,把迎面而来的白色卡车认错成一朵白色的云,那么后果不堪设想。要避免这样的悲剧发生,人工智能领域的研究人员必须非常对于日常中最常见的意外有深度的认识,这样的话,机器才可以变得更加聪明。这也正是谷歌在做的事——同时研究人脑和神经网络。到现在为止,神经网络的意义在于人眼不会认错的地方,机器也不会认错。
自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。 事实上,我们执着于对人工智能的一些严重的、甚至是危险的误解。
很难知道该相信什么。但借助于计算科学家,神经科学家,和人工智能理论家的创举,我们可以逐渐了解关于人工智能更清晰的图景。下面是关于人工智能最常见的误解和虚传。
一、人工智能由于其极高智能,将不会犯任何错误。
Surfing Samurai机器人人工智能研究者和开发者,Richard Loosemore认为大多数假设的人工智能将毁灭世界的情景都非常不符合逻辑。大多数类似的假设总是认为人工智能将会说:“我知道毁灭人类文明是由于设计引起的故障,但无论如何我还是很想去做。”Loosemore指出如果人工智能在打算毁灭人类时,其思路是如此自相矛盾的话,它将在其一生中面临无数自相矛盾的逻辑推理,也因此会干扰了其认知从而变得非常愚蠢,而同时根本不足以对我们造成伤害。他同时也断言,那些认为“人工智能只会做程序设定的任务”的人,将会像在电脑刚刚发明时那些说电脑将永远不会具备应变能力的谬论的人一样。
二、我们永远不会创造出类似人类智慧的人工智能
我们已经在一些游戏领域,如象棋与围棋、股市交易和谈话等创造出可以与人类智慧匹敌、甚至超过人类的计算机。 而背后驱动的计算机和算法只会越来越好;因此,计算机赶超其他人类活动,将只是个时间问题。
当怀疑论者说这是一个无法解决的技术问题,或是生物大脑有一些内在的独特之处时,是不能令人信服的。我们的大脑是生物机器,但归根到底它们仍然是机器;他们在现实世界中存在,按照物理学的基本规律运行。没有什么是不可知的。
三、人工智能将有自觉意识
关于机器智能的一个共同的假设是,它是自觉的有意识的,也就是说,它会像人类一样思考。我们完全可以想象一个非常聪明的机器,缺乏一个或多个这种属性。最后,我们可以建立一个非常聪明的,但没有自我意识的,不能主观或有意识地体验世界的人工智能。
只是因为一台机器通过图灵测试从而证实计算机和人类在智能上无区别,并不意味着它是有意识的。对我们来说,先进的人工智能可能会导致机器看起来是意识的假象,但是在自我自觉方面,它并不比一块岩石或计算器更能感知自我意识。
四、我们不应该害怕人工智能。
一个高度智慧的系统也许能了解完成一个特定任务所需要的所有知识,例如解决一个让人头痛的财务问题,或者侵入一个敌人的系统。但除开这些它所专长的特定的领域外,它很可能非常无知和愚昧。
五、一个简单的修补程序将解决人工智能的控制问题。
假设我们创造出强于人类的人工智能,我们将要面对一个严重的“控制问题”。未来主义者和人工智能理论家完全不知如何限制和制约一个ASI(超强人工智能),一旦它被创造出来,也不知道如何保证它将对人类友好。最近,佐治亚理工的研究人员天真地认为人工智能可以通过阅读简单的故事和社会习俗来学习人类价值观。而问题很可能会远远比这复杂。
所以,理论上,如果不停挑战AI所不擅长的复杂选点棋局,是有可能发现AI的问题,引起过拟合现象的。就像前面提到的,李世石对战AI第四盘棋中的“神之一手”。不是因为这一手够正确,而是因为这一手够怪。
简单来说,你只要不停走AI没见过的棋局变化,是有可能引起AI出“bug”的。哪怕是在现在很成熟的AI系统上,过拟合的风险。以人脸识别为例,只需要你在脑门上张贴类似于人脸其他器官纹理的贴纸,就能轻易让AI错乱。
AI确实征服了很多难题,但现在的AI也绝非完美。需要我们去了解其原理,并将其优势为我所用。就像现在的围棋棋手们,未选择用“怪棋”挑战AI的极限,而选择了和AI共同进步学习那样。这才是我们和AI的相处之道。
人工智能作恶谁之过?
“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”
2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架。
微软聊天机器人的极端言论。
这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论,谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,使人对自己的看法更加深信不疑。
因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。
1、人工智能有作恶的能力吗?
人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安: 拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。
这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。
14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。
十分高产的科幻作家阿西莫夫(1920-1992)。
看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。 然而 将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。
一方面,机器似乎还不够“智能”。 南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。
而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?
另一方面,机器似乎已经太过“智能”,某些方面几乎要超越人类的理解。 近 10 年,人工智能领域迎来了爆发,这要得益于 “机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。
目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为 “当代炼金术”:输入各类数据训练 AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。 处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。
这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥将其称为 “人工直觉” (artificial intuition)。
我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?
“我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。
今天的人工智能之所以危险,不仅是因为它已经具备了一定的能力和“权力”,还因为 人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。
今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”? 机器是否也继承了我们既有的偏见、无常和贪婪?
2、人工智能的罪恶之源
人工智能在判断上失误的一个指责,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。
而这种危险并不仅仅是 “另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而 人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。
人工智能会加剧人类社会的不公平吗?
对每个毕业季都会收到数以万计简历的大公司人力部门而言, 用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了 HR 的眼皮底下。 筛简历的 AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR 就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR 或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。
最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。 然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。
美国 IT 作家、数学家凯西·奥尼尔曾经调查到,人力资源解决方案公司 Kronos 提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。
金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest 开发了一个人工智能信用评估平台 ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。
百度作为搜索引擎合作商,向他们提供了大量可以数据用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。
歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了 bug? 机器所计算出的结果,能为歧视、不公、残酷提供理由吗? 这些都是值得商榷的问题。
我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。 《MIT 商业评论》的分析者认为,类似于 ZAML 的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。
机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣, 此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。
3、资本驱动的数据世界
如果说“过往数据”的积累是机器作恶的基础的话,那么资本力量的驱动则是更深层次的原因。
如同开篇提到的那样,2016 年美国大选期间,一家叫剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的 5000 多万用户数据。
剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。
剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook 的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。
即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。
数据的收集本身也值得商榷。前百度人工智能首席科学家吴恩达(Andrew Ng)就曾公开表示, 大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。 在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。
总而言之, 在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。 剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫将这种人工智能和资本“合体”的现状,称之为 “监控资本主义” (Surveillance Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。
业界对此的态度很暧昧。AI 作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。 一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”
作者试图找到行业内人士对此评论,谷歌(中国)和百度自动驾驶部门的人工智能相关人员均表示,探讨 AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。
“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道 ,“系统的设计者和商业(应用)的提供人员需要对此负责。”
如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。
4、人工智能作恶之后
2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速 38 mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。
电视台对自动驾驶优步车祸的报道。
事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能采纳。但是在事故发生之后,对于责任的认定依然遇到了困难。
因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。 人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。 就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。
当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”, 需要怎么监管、如何教育,才能让人工智能“不作恶”。
人工智能的监管问题亟待解决。
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。
另外一个重要的问题是, 让机器求真求善,需要人类自己直面决策中的黑暗角落。 在 Atari 游戏智能的测试中,游戏中的人工智能 bot 可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。 至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。 对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?
谷歌中国人工智慧和机器学习首席科学家李飞飞认为, 要让机器“不作恶”,人工智能的开发需要有人本关怀 。“AI 需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。
未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。 我们并不想看到未来的“机器暴政”将我们的社会绑在既有的偏见、秩序和资本操纵中。
一个AI
人工智能之所以会作恶,可能就是因为太像人类了吧。
对人工智能的一些不成熟思考
第一,计算的本质与智能的本质。
《类脑智能研究的回顾和展望》指出,现有人工智能系统通用性较差与其计算理论基础和系统设计原理有密不可分的关系。计算机的计算本质和基础架构是图灵机模型和冯诺伊曼体系结构,其共同的缺点是缺乏自适应性。图灵计算的本质是使用预定义的规则对一组输入符号进行处理,规则是限定的,输入也受限于预定义的形式。图灵机模型取决于人对物理世界的认知程度,因此人限定了机器描述问题,解决问题的程度。而冯诺伊曼体系结构是存储程序式计算,程序也是预先设定好的,无法根据外界的变化和需求的变化进行自我演化。总结来看,计算的本质可以用一个数学公式f(x)=y来表达,是问题求解的范畴。
那智能的本质是什么?如何表达?著名信息论和人工智能专家钟义信给了一个探讨性的定义:智能一定是在环境的作用下,人跟环境相互作用,不断的去学习,不断的去进化,在这个过程当中展开了智能的活动。反之,如果没有这种主体跟客体的相互作用,如果一切都是十全十美,如果不需要做出任何的改进,那就不需要思考、不需要学习,也就不需要智能。所以,一定要在主体跟客体相互作用过程当中来考察智能才有意义。李衍达院士在《 沿Simon 开拓下去》的报告中探讨了智能的功能与智能的机理问题,指出基因的层次没有鸿沟,人和所有生物的机理是相同的,区别的是进化:自动适应外界变化而优化自身结构的功能。而且人脑在进化过程里面通过DNA的改变,改变了神经元的连接,这个连接既记录了学习的结果,又优化了学习算法。既简化了所需要的元件,又节省了能耗,非常巧妙。
第二,关于程序员转型。
和第一个问题有关,我们都是学习图灵机模型和冯诺伊曼架构长大的,思维方式相对固定。深度学习今年非常火爆,程序员又要开始转型。关于转型,我注意到几个论调:
以上我都不太认同,人类是万物之灵,遇到新问题,学习新东西,再正常不过的事情,何来转型之说?如果非要说有什么需要转变,我觉得是到思维方式的转变:
第三,脑复杂?还是环境复杂?
傅小兰在《Simon与认知科学研究》报告中提到了《分布式认知》,指出认知现象在认知主体和环境间分布的本质:认知既分布于个体内与个体间,也分布于媒介、环境、文化、社会和时间等之中(Cole Engestrom, 1993)。Herbert A. Simon 也指出,一个人,若视作行为系统,是很简单的。他的行为随时间而表现出的表面复杂性主要是他所处环境的复杂性的反映。人——或至少人的智力要素——也许是比较简单的,人的行为的复杂性也许大半来自人的环境,来自人对优秀设计的搜索,因此,“在相当大的程度上,要研究人类便要研究设计科学。它不仅是技术教育的专业要素,也是每个知书识字人的核心学科”。
第四,从上而下还是从下而上?
人工智能从上而下研究的开创者和代表人物是Herbert A. Simon,他当时想到,人的大脑活动是分层次的,在底层的机理没有搞清楚时,他认为也不妨碍对于高层概念、推理、问题求解层次进行研究。符号学派就是自上而下的典型代表,但至今符号学派一直受到自下而上的连接主义压制。自下而上的代表是日本的第五代计算机计划,东京大学元岗达教授提出“第五代计算机的构想”,随后日本制定了研制五代机的十年计划,总预算达4.3亿美元。以渊一博为所长的“新一代计算机技术研究所”苦苦奋战了近十年,他们几乎没有回过家,近乎玩命式的拼搏;然而,由于没有突破关键性技术难题,无法实现自然语言人机对话,程序自动生成等目标,最终于1992年宣告失败!这或许也是图灵机模型和冯诺伊曼架构的失败。然而,峰回路转,得益于分布式计算和大数据时代,深度学习成为主流的自下而上方法。近五年来,深度学习在“视”、“听”、“说”等领域取得了的巨大成功,但这还不能表明自下而上的胜利或者神经网络模型的正确。神经网络只是从下而上对大脑的粗糙模拟和抽象,是否是正确的大脑学习隐喻还不得而知。但神经网络的成功又引发了一些自下而上的尝试,据称IBM有一个名为“突触”的项目,研究芯片级类脑计算设备,支持低频率,低功耗,和大量链接等神经网络功能。
第五,鲁棒性?可解释性?魔术性?
这几个问题是现在机器学习,特别是深度学习面临的主要问题。人类犯错:水平从九段降到八段,机器犯错:水平从九段降到业余,这就是鲁棒性。鲁棒性要求,“好的时候”要好,“坏的时候”不能太坏。在封闭静态环境中,重要因素大多是“定”的,而在开放动态环境中,一切都是变的,开放环境的鲁棒性,这也是自动驾驶面临的困难所在。关于可解释性,也被称为深度学习的黑箱模型。若学习器不能给出治疗理由,则难以说服患者接受昂贵的治疗方案。若学习器不能给出停机检测的理由,则难以判断停机检测的风险和代价。这些案例都需要机器学习的模型给出解释,否则难以应用到难以用于高风险应用。而机器学习魔术性是指即便相同数据,普通用户很难获得机器学习专家级性能。就是专家之间,是特别考验团队实力的,也有一点运气在里面。门派都一样,功力不一般。
第六,目前的研究热点和我的方向。
深度学习是很火的,不过周志华说的很中肯:“深度学习中间还有很多困难而又重要的问题值得深入研究,但这些真正值得研究的问题,就我看到的情况而言,好像做的人非常少。大多数人在干什么呢?拿它做做应用,调调参数,性能刷几个点,然后发几篇文章。这样虽然容易发表文章,但恐怕很难产生有影响的成果。” 另外,周志华在引领集成学习的发展方向,CCAI17可以看到一些方向,香港科技大学计算机系主任杨强谈到的迁移学习,日本理化学研究所杉山将谈到的弱监督机器学习等。我的计划是,从历史中观其大略;感知机,神经网络,反向传播,深度学习是一条线,已经是必备的基础了;然后向增强学习发力;在技术上打通分布式系统,大数据和机器学习;在业务和需求上结合金融场景。
第七,已知和未知。
我们参考神经生理学,研制了神经网络和深度学习,并且取得了良好的效果。有人指出,大脑的生物物理结构,机制和功能只是大脑处理信息过程中的印记,其中很少一部分可用于有意识的思想(认知)。在学习未知的过程中,我们对学习到底了解了多少?在未知的区域里,既有要学习的对象,也有学习本身。
参考文献:
《人工智能走向2.0》 潘云鹤
《类脑智能研究的回顾与展望》曾毅等
《脑启发计算》苏中
《机器学习》序言 陆汝钤
《机器学习:发展与未来》周志华
《H. A. Simon学术生平》林建祥
《Simon的认知科学思想》傅小兰
《人工智能--螺旋上升的60年》高文院士
《沿Simon 开拓下去》李衍达
《塞蒙终生学术经历简介》林建祥
《人工智能的历史》中国人工智能学会
《司马贺的创新之路》史忠植
《弘扬Simon学术思想 》钟义信
《探寻大师足迹,一览马文•明斯基学术风采》史忠植
《站在巨人的肩膀上,从人工智能与认知商务》苏中
《弘扬 Simon的源头创新精神开拓“AI”的新理念新路径》钟义信
《独家 | 周志华:深度学习很有用,但过度追捧就有危险了》AI科技大本营
结语:以上就是首席CTO笔记为大家介绍的关于人工智能犯错后如何纠正的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。