您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 嘉兴分类信息网,免费分类信息发布

被超级人工智能控制的世界会是什么样子?(深度解读)

2019/10/19 6:25:50发布110次查看
从我们人类捡起了树枝,把它当武器开始,到我们可以发射洲际导弹(东风41-地球最大杀器),我们至今所能办到的事情和我们想要达成的目标,都是来自于我们的学习和模仿能力,比如:飞机、雷达、潜水艇。诸如此类,因此我们有理由相信,在未来任何能够显著提升学习和模仿能力的,都有可能对这个世界造成一个巨大的改变。
很多科学家认为,我们即将发现能够显著提升学习和模仿能力的科学技术,那就是超级人工智能(超级ai),一个地球超级大脑即将诞生,我们把它看作是地球的中央处理器,而为什么不是我们人类自身呢?
因为我们大家都知道,机器处理资讯的能力和扩展性,要比生物组织大很多,这是取决于物理原理的,简单说就像我们之前提到的虚拟世界,人类的大脑算力一样,虽然目前的计算机还没有达到人脑的算力,但是量子计算机,或者华为申腾910芯片,甚至atlas 900人工智能学习群组,他们都可以不断的量化,也是可以用不断扩大来增加他的算力,可以像一间房间那么大,或者说像一个城市那么大,那真是不可想象。而我们人类的大脑虽然结构比较精密,但是它是不可以像机器一样不断扩张,不断升级的,也不可以变成像房间那么大,或者说和城市一样大,所以物理的极限比生物极限要大得多的多。
目前的人工智能是由程序设计师将指令输入到程序里。精心的设计,把各种可能遇到的问题和解决方案,设计成一套逻辑严密的指令来进行自动操作,设计师们建立了这套程序系统,是可以在特定的领域发挥一些稳定的作用,但是他们却是非常的生硬,甚至说是耿直固执的,就是太死板了,1就是1,2就是2,完全没有变通的余地,基本上这些系统输出的东西呢,都是程序设计师提前设计好的范围。
例如:今日头条的这个推荐形式,它会根据程序设计上事先设定好的逻辑来判断什么样的文章该推荐给什么样的用户?或者说根据这篇文章观看的完整度速率停留时间来确定这是不是一个好文章或者视频,但是由于某种原因,这样的一套逻辑系统是很容易被一些作者利用,所以程序设计师就会不断的通过增加这个分析文章好坏的一些因素和维度来修正算法,或者说让这个系统变得看起来更加聪明一些。
可是今日头条和他们的程序设计师呢,不会一直安于这个不断的重复发现bug修复bug,这个死循环中。他们一定会从成本的角度考虑能不能通过一些更高层次的手段,例如,赋予这个程序自动学习的能力和思考能力,也就是人类才具有的举一反三的能力,来彻底的或者说阶段性的解决这个问题,因为只有这样,才能够尽量少的雇用这个修复bug的程序员,提高他们的工作效率以及利润。
这恰恰也反映了我们人类对未来人工智能的诉求,所以在未来一定会出现这样一个时刻:就是在人工智能的领域里,发生了模式上的转变,就是人工智能开始具备了学习和思考能力,其结果就是,会出现一种不再局限于某个特定领域的人工智能,同一个具备了学习和思考能力的系统,是可以学习任何不同领域的知识,当然现在的人工智能是远远还没有达到和人类智慧一样可以具备跨领域的学习知识的能力。人类的大脑具备一种独特的运算技巧,我们还不知道要通过什么样的手段,复制这些技巧到程序里。
现在的问题是我们还需要多久才能够将这些技巧复制在程序里?在几年前,有一个机构对世界上顶尖的人工智能专家进行了一次问券调查,其中的一个问题是,你认为到哪一年人类会有50%的几率能够达***类级别的超级人工智能?这里我们把超级人工智能的定义,设定为可以将一项任务执行的像一名成年人一样为标准化,所以这里指的超级人工智能是可以真正像人类智慧一样,具备学习和思考的能力,而不仅仅是局限于某一个领域,而这个答案呢,大多数都是在2040~2050年,当然也有可能需要更久的时间才能够完成。也有可能提前吧,这事是没有准确时间的,专家的话只能作为一种参考意义,因此超级人工智能就是潜藏在我们已知或未知的物质里,就像是原子能一样,其实就一直潜伏在人类的历史中,直到1945年。
所以,我相信在这个时候,我们的科学家是有可能唤醒超级人工智能的,到那个时候我们将见证真正的智慧大爆炸。
超级人工智能的发展,目前处在哪个阶段呢?大部分的人考虑聪明和笨的时候,肯定会这样想:一边是村里的傻子,一边是爱因斯坦,但是从超级人工智能的角度来考虑呢,他们的画面应该是这个样子:
人工智能从零智慧开始,然后在很长时间的发展中,达到了小白鼠级别的智慧,就是可以从繁杂的一个环境中找到一个路径通过,然后再花更长的时间,辛苦研究和投入资源后人工智能达到了大猩猩级别的智慧,再经过多年的辛苦研究和更大的资金投入,它们达到了村头傻子的这个智慧,一旦达到了这个智慧级别,就可以证明人工智能的技术已经从量变发展到了质变。而且不会在人类智慧这个级别停下来,更可能是呼啸而过。
但是这也是一个非常令人不安的事情,特别是在谈到智慧的力量和权力的时候,我们都知道一个黑猩猩相当于两个健康男性那么强壮,然后黑猩猩的命运是牢牢的掌握在人类的手里,这就证明了拥有更高的智慧就相当于拥有了权利,当超级人工智能出现的时候,那么人类的命运很可能就取决于这个超级人工智能想要做什么,因此超级人工智能,很有可能是人类最后一个需要创造的东西。在那之后一个具备或者说超越了人类级别学习和思考能力的程序比人类更擅长创造,这也意味着一个被缩短了的未来。
想象一下,你所幻想过的所有的黑科技,也许我们人类会在一个适当的时候完成创造,比如说终结衰老,宇宙殖民,可以自我复制的纳米机器人,或者说将人类大脑的信息传输到电脑上,诸如此类,看似存在于科幻,却又同时符合一些物理法则,但是超级人工智能,或许会比人类更好的完成这个创造,一个能够快速学习模仿以至于拥有世界上所有成熟科技的这个超级的人工智能,都会变得非常的强大,不会像人类一样,即使再博学也会有相当大的一个知识死角。
而超级人工智能则更像一个无所不知的存在,或者是一个平台,就是我之前写过的一篇文章里提到的超级大脑,并且它可以将人类所有的智慧转化成知识有机的结合在一起,更加有效率的完成创造。
所以我们大部分人的未来将会被超级人工智能的喜好所主宰,那么这个人工智能的喜好是什么呢?那就是这些超级人工智能的拥有者的喜好,也就是有权力的人,但是这也是极其危险的,甚至当这些超级人工智能发展到一定阶段的时候,那些少数拥有他们的人都可能被奴役,所以如果要在这个领域安全的发展,我们就必须避免超级人工智能人格化。
其实关于这一点是非常讽刺的,因为我们所有关于未来人工智能的想象都会是这个样子,所以我们还是需要用一个更为抽象的方法来理解这个问题更好一点,我们需要把人工智能看作是一个优化的过程,一个能把未来引导至一个特殊组合结构的过程,一个超级人工智能是一个非常强大的优化工程,他会擅长利用各种资源来最大化的达到目标,但是我们也要规避掉这其中对于人类不利因素。
假设我们给予人工智能的目标是使它让人类开心,当它处在比较弱的人工智能的时候,它会尽可能的收集一些搞笑的方式来让人们开心。而当它变成超级人工智能的时候,他会很快意识到,一个更行之有效的办法能够快速的达到这个目标,那就是控制世界,然后将人类脸上插上电极,这样人类就会一直不断的笑下去。这听上去是不是很恐怖呢?这种事情,也只能说不一定发生。
最后,想说的是,就是如果我们创造了一个非常强大的人工智能,然后它以最高效的方式达到我们的基本目标了,那么我们最好能保证,我们想要的这个目标包括在这过程中,我们所有在乎的事情都会按照我们认为对的方式进行。
这里有一个故事能够很好的诠释我上面这句加粗体的话:在希腊神话中,有一个国王,他希望他所有能碰到的物体都能变成金子,一开始,他真的可以把所有接触的东西变成金子,他非常的开心。可是事情很快就发生了变化,在国王吃饭的时候,不管是他的餐具还是食物,同样都会变成金子,这样让国王感到非常的沮丧,于是他想跟女儿倾诉自己的烦恼,但是当国王想要拥抱女儿获得慰藉的时候,就在拥抱的那一瞬间,女儿也变成了金子。
【感谢阅读关注】

嘉兴分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录