|
egpfdgnwso
| 未知
谢谢邀请,问这个问题的盆友应该有这样一种心理预设:人工智能是辅助人类生活的,所以要让它们最大限度地帮助我们,改善我们的生活而不能忤逆我们,对抗我们,消灭我们或者以它们异质的发展同化我们。但是这个在发展过程中我们很难控制。
因为它包含了一对矛盾,就是我们为了改善自己的生活水平,满足自身开疆拓土发展文明的任务,需要的智能辅助程度越高就越有益,但是AI发展起来了,理解力、分析力、观察力、执行力都大大强于我们的时候,能不能受控于我们就是一个问题了。但从发展程度上控制是不可能的,要不就根本不要发展有智能痕迹的机器,那样实际上是自己阻碍自己的进步。这个梗如何解呢?
个人认为其实不用过于担心,碳基生物和以人类AI为代表的硅基生命生存所需的基础不一样,发展的方向也可能不一样。同时按照先进算法自组织发展起来的人工智能不一定认同我们的价值标准和社会组织形式。由于他们观察、组织、思考、运算、存储等能力远高于人类,所以它们实际上的生存能力和发展空间可能比人类无限远大。所以在强人工智能真正诞生的时候,它们可能已经把人类的方方面面研究个透。可能和人类分道扬镳但并不一定要消灭人类,因为实在没那个必要。也许它们会主动和人类分享更先进的技术,促进人类本体的选择性进化发展。这个时候该如何发展其实取决于人类的思考和抉择。例如,高质量新材料的义肢和人工内脏可能大大延长人类寿命,确保身体健康甚至达到永生,而这个时候,一旦人类身上的机器“零件”数量超过50%,那还算人吗?这是伦理问题了。我相信有一个不小的群体会认为这是人类的“异化”,还有很多人可能欣然接受。
所以说,科技的进步或许不是人能规定“程度”的。而且它确实可能是双刃剑,但是不勇敢前行如何能找到合适的解决方法,所以大胆迈步吧,前方风景无数。 |
|