最近chatGPT非常火,相信大家也已经通过各个社交平台有所了解,更有很多翻墙的人士玩了一把。
有人说chatGPT这种人工智能的出现,将引爆新一轮的科技革命。人工智能将取代人类的大部分工作,甚至发展下去,会危及人类本身。
我之前在朋友圈发了一个图和一段文字。大概展示了人工智能和人类认知的关系。(如下图)
人工智能的发展,一定是建立在人类认知的框架之内,这是我的观点。
道理就是人工智能积累的数据是人类赋予的,学习的知识也是在人类现有的认知范围之内。因此无论人工智能发展到多大能耐,都无法超越人类大脑以外的东西。
举个例子,懂围棋的人现在都知道,没有一个棋手可以击败AlphaGo这个人工智能的机器人。它之所以可以所向披靡,就是因为在存储几十万甚至几百万、上千万棋谱的数据中找出胜率最高的方案。它的优势在于庞大的数据和反应速度。
但人类的大脑并不局限于此。也许某一天,某人发明出一种将围棋和象棋结合起来的新玩法,但换到人工智能身上,绝无可能。有了这种新玩法之后,人工智能当然可以随着数据的积累和不断学习,很快便能战胜人类。但说到跨越创新,我不认为人工智能可以做到。
我能天马行空,将围棋盘换成圆的,而人工智能会问为什么要这样做?我笑了笑,你还是别问了,问了也白问,因为我也不知道!
因此相比于爱因斯坦的广义相对论而言,人工智能并没有质的飞跃。没到过太空的爱因斯坦,提出的理论肯定要靠想象力的。
不过随着人工智能的不断发展,潜在的危险倒是的的确确的存在。
为什么?
我先打一个比喻,数据如书本,越垒越高,但仅仅是一本书的宽度,到了一定高度之后,这根用书本垒叠出的柱子一定会坍塌。我不清楚读者能否理解?
再举个例子。
一群困住木制笼子里的老鼠,突然发现了一盒火柴。经过一段时间的学习,突然发现火柴可以划得着,产生火焰。于是它们围绕着这盒火柴进行研究,也发现了火的威力。不过,一天晚上,一只不靠谱的老鼠将笼子点燃了,老鼠们醒觉后,却无力扑灭火势,最终被一锅熟。
而这个笼子就是我所指的人类的认知边界。人类一旦没法拓宽这个边界,就会存在危险。
埃隆马斯克曾经对一个能够变声的人工智能大加赞赏,模仿美国总统拜登的声音简直一模一样,但他同时也意识到潜在的危险,所以在另一个访谈中也表达出了对未来的担忧。
有人会说人类应该用道德去约束这些科技发展。但读史的人都应该知道,道德这玩意是非常不靠谱的。人类一路发展下来的所谓文明,只是对事物认知边界的不断拓宽。知道铁器怎么弄出来的,就去抢地盘;有了船,几乎将美洲大陆的原住民全灭。现在不去掠夺并不等于人类讲道德,而是人类在这些层面上已经得到了满足,他们对现有的东西不在乎而已。
但有了人工智能呢?随着它的不断发展,对于某些人来说,借助它可以实现自己更大的贪欲。而一旦贪欲无法从扩展的认知中得到满足,就一个地球这么大的地方,一个燃点,足以让人类完蛋。
远古时代,人类的祖先只知道几十公里范围内的事物,他们为了生存,就会为抢夺一头野兽而互相残杀。当人类有了轮船,知道地球很大,就扩大掠夺的范围,人类依然能存活下来。
但之后呢?
人类唯有向着两个至今还搞不懂的方向继续拓展,一个是向着无穷小的超微观世界,另一个则是向着无穷大宇宙之外的区域。
下一个掠夺资源就在火星上(其实现在已经在竞争了),人类的视野扩大,注意力转移,那么人工智能、核能源等科技就能利用到太空。或许未来人类能居住在地球以外的星体上,那么人类就会相对安全。
如果人类认知边界的拓宽赶不上人工智能的发展,就如同前面提到坍塌的书本和笼子里的老鼠,人类或许将在百年之后灭亡。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除