蒋承宏:超级人工智能人类导致永生或灭绝

蒋承宏:超级人工智能人类导致永生或灭绝

人类灭绝admin2018-10-24 10:40:511240A+A-

蒋承宏:超级人工智能人类导致永生或灭绝

你好,大家好,我是00,江成红的创始董事。今天,我将与您分享人工智能的主题。

蒋承宏:超级人工智能人类导致永生或灭绝

人工智能的概念非常广泛,分为许多类别。我们根据人工智能的能力将其分为三类。

第一种类型的弱人工智能,这种智能擅长单向人工智能,比如可以玩DOTA、英雄联盟等游戏的人工智能,但是如果你问他怎么玩它只玩这个游戏玩Go,他不知道怎么回答你。

第二类是强大的人工智能。这种智能指的是可以在各方面与人类进行比较的人工智能。人类的大脑可以做到这一点。创建强大的人工智能比创建弱人工智能要困难得多,我们做不到。

科学家将智能定义为思考、计划、的广泛心智能力,以解决问题,抽象思维,理解复杂思想,快速学习并从经验中学习,在这些行为和人类中强有力的人工智能同样方便。

最后一类是超级人工智能,牛津哲学家、众所周知的人工智能思想家尼克将超级智能定义为比几乎所有领域中最聪明的人类大脑更聪明,包括科学创新、一般知识和社交技能。

超人工智能在各个方面都可能比人类更强大,或者在各个方面都比人类强十亿倍。

在此期间,我们一直在谈论的人工智能革命指的是从弱人工智能到强大的人工智能,最后到超级人工智能的旅程。人类可能会在这段旅程中幸存下来,也可能不会,但无论如何世界将完全不同。

我们现在所处的世界充满了微弱的人工智能。虽然弱的人工智能并没有威胁到我们的生存能力,但我们仍然需要保持警惕,看看正变得越来越庞大和复杂的弱人工智能生态系统。弱人工智能的每一项创新都增加了强大的人工智能和超级人工智能的旅程。

当前弱的人工智能可以说是地球早期软泥中的单细胞生物,但生命很可能会突然形成,这种生命的演变将是难以置信的,它将会跟随。整个社会的发展速度也非常快。

想象一下,在17世纪坐回地球。那个时代没有电,通信基本上依赖于交通,而交通主要是由动物驱动的。那时候,你邀请了一位名叫老江的男子参加2018年比赛,顺便看看他对未来的看法。

当蒋介石在宽阔的道路上看着世界上的金属铁壳时,看着千里之外正在进行的世界杯比赛,与数千公里外的人们进行视频聊天,拿着一个叫做手机的工具,充满了什么体验蒋介石在世上?

惊喜、震惊、这些词太低调了。我认为蒋介石很可能开始怀疑生活,觉得他有幻想,甚至可能会害怕。

随着人类文明的发展和科学技术的进步,整个社会的速度将迅速发生变化。未来学家称这种加速发展的人类是加速回报的法则。

出现这一规则是因为更加发达的社会继续增长的能力将得到加强,发展速度将更快。 19世纪的人们比15世纪的人们了解得更多,因此19世纪的人们发展得比15世纪的人们更快。

未来主义者认为,按照2000年的速度,整个世纪和100世纪的进步可以在20年内实现。2000年的发展速度是20世纪的5倍。

他们认为,在2000年初,需要14年才能实现整个世纪和100年的进步。然后,从2040年开始,在20世纪实现另一个世纪的进步只需要七年时间。 ?

几十年后,我们每年可以实现相当于整个20世纪的几项开发,然后我们可以每月达到一次。随着这种快速发展,高概率与人工智能的发展密切相关。

关于人工智能何时达到人类普遍智能水平仍存在争议。对数百名科学家进行的一项调查显示,他们认为强大的人工智能的中位数是2040年,而且还有20多年。

但是,该领域的许多思想家认为,从强大的人工智能到超级人工智能的过渡将会快得多。人工智能系统花了几十年才发展到人类儿童的水平。当这个节点发生时,计算机对世界的看法与一个四岁的孩子大致相同。

在这个节点之后一小时,计算机立即推导出广义相对论和量子力学的物理理论。在此之后的一个半小时内,这种强大的人工智能已经成为超级人工智能,智力可能达到人类的17万多倍。

这种超级人工智能水平不是我们能理解的,就像蚂蚁不理解凯恩斯主义经济学一样。在人类世界中,我们称智能为130智能,85智能为愚蠢。但我们不知道如何描述爆破表的智商。人类文明系统中没有这样的概念。

(编辑:admin)

点击这里复制本文地址 以上内容由灭绝库整理呈现!如对内容有疑问,请联系我们,谢谢!

支持Ctrl+Enter提交

灭绝库_灭绝物种主题站 © All Rights Reserved.  
联系| 关于| 讨论交流|网站地图
冀ICP备11020173号-16

会员登录
新用户注册
×
会员注册
已有账号
×