|
zhangxi24
| 未知
人工智能是今年大火的一个词,很多科技产品都开始接入了所谓的人工智能技术,有出现了安装人工智能芯片的手机,有人工智能汽车,也有可以击败围棋高手存在。对于人工智能,霍金预言:人工智能是导致人类终结的凶手。霍金担心的并不是人工智能本身对人类造成的威胁,而是人工智能让人类的贫富差距更为明显,社会阶级鸿沟更加不可跨越,更容易引发大规模的现代战争。
扎克伯格日前在接受Axel Springer Award颁奖时接受采访,在谈及人工智能威胁论,比如伊隆·马斯克等担心的未来机器将取代人类等担忧时, 他认为这些担忧毫无依据 (not valid fear),简直就是发神经 (hysterical) 。
“人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要”。
扎克伯格被问道“难道科幻小说里那种(机器超越人类)的事情真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?”
扎克伯格解释道:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁如何办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管如何样,我们要先造出飞机,再担心飞机的安全性。
我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择,因为我们本来可以利用人工智能让世界更美好。” |
|