首页>>人工智能->霍金死后多久反对人工智能(2023年最新分享)

霍金死后多久反对人工智能(2023年最新分享)

时间:2023-12-11 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于霍金死后多久反对人工智能的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

为什么斯蒂芬·霍金会说不要发展人工智能?

斯蒂芬·霍金和特斯拉的Elon Musk都觉得人工智能(AI)的能力超越人类智慧的时候人类将可能会被消灭,人们需要密切关注其发展,特别是中国对AI的研究加速让他感到不安,但并不是每个人都认为机器可以聪明到那种地步。

物理学家史蒂芬·霍金(Stephen Hawking)和企业家Elon Musk两人观点具有共同点:在机器内部传播的智慧,如果被危险地使用,可能会导致人类灭亡。

霍金在2017年全球移动互联网大会上的一个视频中表示:“我认为生物大脑可以实现什么和计算机可以实现的内容之间没有真正的区别。" 他还补充道“人类受生物进化缓慢的限制,不能竞争,可以被AI取代”。

霍金已经不是第一次对人工智能(AI)提出警告,他曾说:“人工智能可能是对人类来说是最好的也有可能是最糟糕的事情”。

电影《终结者》的智能AI机器

霍金声称“人工智能在中国引起了更多的共鸣”,这个国家在短短的两三年时间里已经成为AI的中坚力量,特别是在机器学习的领域中,包括“深入学习”。 “正如大西洋的报道,中国现在的研究人员今天已经变得如此突出,业界最大的人工智能年会,即人造智能进步协会的年会不得不匆忙地重新安排,因为意识到日期与中国人有冲突新年。显然,中国人提交的论文数量相同与中国大学数量一样,非常惊人。

因此,你不应该惊讶地发现,在“新”经济中领先的中国企业在AI方面是有深厚积累的。百度(中国的谷歌),Didi(中国的Uber对手,已经收购Uber中国)和腾讯(游戏和即时消息应用WeChat的所有者)都拥有自己的AI实验室。百度显然在AI部门有1300名员工,目标是在2020年推出自主驾驶的汽车。所以,如果AI的下一个开创性的发明来自那里而不是硅谷,那么不要惊讶。

因此,有一个非常有意义的“奇点”的主题 -——机器超越他们的人类创造者的智慧的概念,首先由英国数学家欧文·约翰·福尔在20世纪60年代提出,并被数学家和小说作家维克多·维格(Victor Vinge)普及在20世纪90年代,正在处理下一波的思想,这些思想越来越需要解决这个根本问题。

他说:“严重的风险不在于出现一些超级智力机器人,而是我们可能会滥用数字技术,危害人类和整个地球。

h霍金本人认为,AI是一个巨大的好处是其潜在的能力,它可能有助于解决世界上长期以来难以解决的贫穷和疾病问题。但是,AI和核弹类似,他认为需要一些有效的监督。

霍金曾经说过:“我们花了大量的时间学习历史,我们面对的是大部分是愚蠢的历史,所以人们正在研究而不是智力的未来是一个值得欣喜的变化。“

霍金多次警告:人类必须离开地球,他去世前几年到底发生了什么

世界著名物理学家史蒂芬•霍金多次发表声明称:为了人类的继续生存,必须要离开地球表面!因为他说人类将在未来的600年摧毁地球,地球表面将会形成一个巨大的火球,吞噬万物。因为在他看来人口规模不断增长,地球资源消耗越来越快,所以终有“干枯”一日。霍金所做出的这一预言与其他科学家的研究其实并没有多大的差别,只不过说将时间向前推了不少!

1、地球灾难加快

其他的科学家都是表明地球迟早会走向毁灭,并没有作出具体性的概括,而霍金对于该现象做出的“预言”是后500年到600年左右,其实早在2017年,霍金在参加某节目时就谈及到了世界末日问题,他的立场很明确,并且说基本可以确定在未来1000年内,地球会因某次大灾难而导致消亡,举例说明的两个典型例子就是核战争和温室效应。一个是战争,另一个是环境资源型损坏,从当前南北极冰会融化的速度来看,认为这些都是正在膨胀的威胁,并且肉眼可见。对于霍金这一“直言”,就是很多人的心底里都有认同,但是时间久远的问题,所以也就没有多大的担心!有网友调侃道:“人在世上活100年都难说,更何况是五六百年之后呢?”

所以说当前要求对地球环境及资源进行保护,就是为了让地球这个家园得以让人赖以生存,世代延续下去。霍金在此之前还曾表达过对于人工智能的恐惧,时刻在强调着需要开发其他星球,在“末日”到来的那天离开地球表面,让人类种族得以延续。其实霍金对于这一时间估算进行过多次修改,刚开始做出的预言是1000年之内,随后时间逐渐缩短,到2017年11月5日,霍金通过远程连线的方式进行了演讲,称人类需要在600年之内离开地球表面,不然就会被大火吞噬。

2、网友开始慌了

因为空间、各种资源的问题,温室效应的急剧加快造成了海平面的急速上升,如果说继续这么下去,那么总有一天大部分的陆地将会被海水淹没,变成海洋!同时,人类的进化也会根据环境进行基因突变,物种就会出现倒退进化的情况,这与人类从动物进化没有区别,只不过是恰恰相反罢了。还有一种情况就是人口数量的不断增加,有可能导致灾难提前来临!因为人口数量增加,那么资源使用率将会更高,社会人口密度过大,对于环境而言是一种威胁。面临着这一系列问题的出现,霍金给出的答案是:移居外星球,才能够避免灾难发生!

当大家都在享受着科技带来的福利时,霍金对于这一现象提出警告!他在回答观众提问时说道:人类将来面临的威胁大部分都是来自于当前科技的进步,因为转基因物种在不断增加,有关于科技带来武器的进步也是不可估量。新武器有着巨大的损伤力,如果进入全面战争时期,那么后果将是不堪设想!直接的就会慢慢的演变成核战争,随着人工智能的不断发展,更是担心像电影当中上演的机器人具有自主意识行为出现,如果有自动化武器生成,人类在其面前将会变得不堪一击!

3、上月球吗?

探月工程的确是做了不少工作,但现在的情况来看还是不够现实!并不是所有人的体质都能够上太空,宇航员更是万里挑一,如果说真的等到那天也只能是少部分上太空,大部分人都只能杵在原地,这应该是最悲惨的一面吧!但是从当前的实际情况来看,对于环境资源保护已经引发众人深思,并且协同着手去处理该事宜,相信在大家的努力之下资源问题将会得到解决。提出的口号“我们不仅要金山银山,更要绿水青山”,这就是最好的说明!

霍金发表过很多的言论,并不是说所有的言论都实现!但是从他的权威角度来看,又不可否认,只能等到时间证明!但是温室效应以及地球资源问题这都是显而易见的,需要付出更多的努力才能挽救。我们普通人也只能从当前做起,从身边的小事做起,尽量减少污染排放,献出个人微薄之力,汇聚起来就是一份大的力量!不仅仅要为当前考虑,更要为子孙后代考虑,不能引来后人埋怨。

霍金多次警告:人类必须离开地球,他去世前几年到底发生了什么?

在霍金众多神神叨叨的预言中,有一个词出现频率很高,就是赶紧让人类离开地球!总共大约4条预言中,预言离开地球和地球灾难的就占了2条,还有一条是警告不要主动与外星人联系和机械生命崛起!

霍金这么多预言有什么根据吗?

相信霍金的这些预言并非信口开河,霍金首先是一位有杰出贡献的物理学家,其次他才是著名的科普作家,所以我们就来分析下他警告人类应该尽早离开地球,到底是出于哪些原因!

霍金一直对人类将所有希望都寄予地球感到非常不安,几十年来他一直呼吁人类应该开始计划永久性移民到其他适合居住的星球!可能很多朋友都认为这完全是小题大作,地球不是很安全么,上千万年来人类一直在延续,但各位要知道的一点是,地球真就是宇宙中的一粒尘埃!

旅行者一号在65亿千米外回望太阳系时拍摄了一张照片,在天文学意义上这张照片是不合格的,有镜头炫光,分辨率很差,而且目标十分暗淡,但这个暗淡的蓝点就是人类所有的梦想,卡尔萨根以此为契机出版了一本《暗淡蓝点》,那段著名的引子咱就不引用了,想必各位应该能背了吧!

暗淡蓝点,亮带为镜头炫光

人类就生活在这颗尘埃上,所以霍金的担心是不无道理的,比如他担心爆发核战、全球气候变化以及病毒与人工智能等都能在短时间内毁灭人类,当然霍金可能没有考虑外来的小行星撞击这个因素,但相信这一点霍金肯定是能想到的,毕竟他首先是一个天体物理学家!

无论是哪种威胁,毁灭人类的过程有如何的不同,但结果是一样的,所以人类文明永续所要考虑的问题不仅要积极应对这些威胁,但也有最好万全之策,也就是文明必须有一个安全的备份!而且必须是异地备份!

末日种子库

人类在北极圈内有一个末日种子库,那里几乎保存了人类能收集到的绝大部分农作物的种子和其他植物种子,但没有人类的备份,当然精子库和卵子库似乎可以当成是备份,但真到了这个时候,估计连维持这两个库的能力都没有了!

那么异地备份在哪里?

不是月球就是火星,月球最近,只要稍稍努力下就能到达,火星稍远,但火星资源绝对要比月球丰富,而且就异地备份而言,火星要比月球优秀得多!如果按霍金的想法,那么竭尽全力在本世纪内至少要在火星建立起万人规模的聚居地,毕竟文明要能保证基因多样性,必须要保证有一定的自然人口数量,不过另一个选择则是可以保留大量的精子和卵子的库存来解决这个难题!

但要提醒一下的是,从霍金开始呼吁到现在已经过去了二十多年,甚至霍金都已经去世都已经2年多了,人类却连登陆火星的计划还仅仅在纸上飘呢!

霍金为什么警告人类不要主动与外星人联系?

其实霍金本身就是一位矛盾的结合体,早先他是坚决反对METI计划的(主动发送信息给高智慧外星生物」[Messaging to Extra-Terrestrial Intelligence,METI]),但霍就在霍金反对前,德雷克(德雷克方程式的主人)主导的阿雷西博信息已经发射出去了,当然这后来引起了一场大讨论,最后制定了《圣马力诺标度》,并且还根据这个标度划分了十个等级,制定了相关国际公约,希望各国政府和组织能够自觉遵守这个公约,有兴趣的朋友可以查查这个公约制定的各种应对规范。

简单的说霍金是坚决反对主动向外星生命发射信号的,2010年时也曾警告,人类在和外星人联系必须要小心,但仅仅过了7年,霍金就和俄罗斯亿万富翁尤里·米尔纳推出了突破聆听计划,这个计划分文两部分,分别是聆听和突破!

聆听计划可以说是SETI计划的延续,即寻找从超过100万个恒星系统可能发射出来无线电或激光信号!

突破计划则是向地球的近邻半人马座α星系的C星(比邻星)发送数千个硬币大小的探测器

这些探测器将被激光阵列加速光帆至光速的10-20%,在20-40年内到达比邻星,之后向地球发回比邻星的信息。

但这已经违背了霍金的初衷:不要主动和外星人联系,也许发现地外智慧生命的诱惑实在太大,即使像霍金这样METI计划的坚决反对者仍然抵不住这样的诱惑,可能霍金随着年龄的增加,思维还是在改变的!但这其实并不影响人类尽早建立自己的文明备份,霍金的忠告无疑是正确的,只是现在地球上各国纷争不断,又遭遇全球性危机,实在腾不出手来处理这远忧,但中国也有俗语送给大家“人无远虑,必有近忧”,可能当前遭遇的危机也是“大过滤器”给予的一次警告!

霍金为什么反对人工智能?

霍金先生认为,正常情况下,人与机器不会起冲突,这指的是在人类可控范围之内。一旦两者之间发生冲突,人类很大可能性必定是遭殃的那一方。对此,他作了个比喻,好比一堆白蚁聚集成了山,它们本来一直和人类和平共处,然后某天,人们要建造一座绿色能源发电站,而建发电站的地方正好离这蚁山很近,白蚁会对堤坝造成影响。这时候怎么办,人肯定会牺牲白蚁。人与发展到一定程度的AI就类似于这种关系,只不过这种情况下,所处的位置发 生了颠倒,人变成了阻碍AI做事的白蚁。

如何看待霍金留下的最后警告 人工智能真会毁

周三凌晨,著名物理学家斯蒂芬霍金教授的家人发表声明,证实霍金教授在英格兰剑桥的家中去世,霍金是科学界最耀眼的明星,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,对推动现代科学的发展做出了重要贡献。霍金去世后,其遗留的几个未经证实的预言也再次引起讨论,其中之一便是对人工智能的警惕。

在他去世前的这几年中,霍金最关注的话题之一是人工智能,他不止一次对外发出警告,即人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。然而,即便是对人工智能持谨慎态度的霍金也是人工智能的受益者——作为霍金个人形象的一部分,霍金的轮椅正是一台集计算机软件、通信技术、红外光、语音转换器于一体的人工智能设备。通过它,霍金的耀眼的思想才得以转化为语音和文字,冲破病驱的束缚、传达给全世界。

一边受益于人工智能技术的发展,一边强调对人工智能需要保持足够的警惕,霍金对AI的纠结态度背后,是人工智能商业化不断加快的全球趋势。2017年是人工智能商业化的元年,亚马逊、谷歌、百度、Facebook等科技巨头,正各自加码、在全球范围内掀起全方位的AI商业化竞争。

正如人工智能为霍金带来的福祉,科技公司们正在试图将AI服务推广到每一个普通人。从互联网应用、智能家居,到医学诊疗与新药研发、工业机器人、及量产速度惊人的无人驾驶,AI正在不断颠覆着普通人对未来生活的想象力。中国的AI巨头百度,便在前不久一组妇女节节日海报中,从AI解放女性的角度,尝试描绘了未来智能生活的图景,阐释了AI与城市安防、AI与智能家居、AI与交通出行三方面的应用潜力。

(图片来自百度官微)

关于科技公司对人工智能的追逐,霍金表示担忧,但AI商业化的进程显然已经势不可挡。从2016年谷歌那个掀起公众恐慌的下棋AI程序 AlphaGo开始,人工智能进入公众讨论,科技巨头们的AI竞争也越来越白热化。亚马逊从智能音箱切入的AI商业化之路也效果破佳。据Strategy Analytics统计,过去一年,全球智能音箱出货量同比增长超过300%,其中亚马逊市占率已过半。

在移动互联网时代创造了无数奇迹的中国科技公司们也毫不落后。作为最早布局AI的科技公司,百度从公开表达“All in AI”大方向,到AI大幅改善其核心业务及财务表现,仅用了不到1年。其无人驾驶平台Apollo,目前已经能实现简单城市道路的自动驾驶,完成了在云端服务、软件平台、参考硬件平台和参考车辆平台四大模块的搭建。2018年百度将联合合作伙伴批量生产商业L4级小型客车及2019至2020年批量生产L3级商用轿车。

而百度无人车在雄安新区、美国的几次高调路测,以及李彦宏等企业家委员在“两会”等平台对无人驾驶相关政策法规坚持不懈的推动,都让公众对智能交通的想象越来越有“触感”,当然,百度的股价也随着Apollo平台、Duer OS、度秘等一系列AI产品落地而一路上涨。

霍金留给人类的告诫,除了警惕人工智能的不确定性,还有能源消耗、人口剧增带来的地球末日,但他给人类的解决方案是,逃离地球。世界确实充满了未知,对这几种风险人类也不妨谨慎对待。但不能忽视的事实是,没人能阻止科技的进步,哪怕我们心存怀疑。与其悲观退让,不如在了解中控制风险。无论是谷歌、亚马逊还是百度,科技巨头们无非是想通过人工智能来服务普通人、或像霍金一样需要人工智能产品来辅助生活的人——同时创造价值。

不过,随着这两年AI技术的进步和商业化的加速,人们对AI各方面的恐惧似乎也有所消减:据美国咨询公司盖洛普近日发布数据显示,不到四分之一(23%)的人“担心”或“非常担心”自动化会影响他们的工作机会,整体态度比较乐观,这也与前两年公众盲目恐慌人工智能有了很大改变。

在霍金去世之际,又勾起了人们对其人工智能警惕预言的讨论。不过,在霍金办公室墙上还有这样一段话——不管在什么时候,我们都不能忘记头顶的星空,要永葆好奇,永远前进。对于人工智能,保持恐惧但勇敢前行、探索未来,或许才是是这位伟人留给我们的最大启示。

结语:以上就是首席CTO笔记为大家整理的关于霍金死后多久反对人工智能的全部内容了,感谢您花时间阅读本站内容,希望对您有所帮助,更多关于霍金死后多久反对人工智能的相关内容别忘了在本站进行查找喔。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/24328.html