开启辅助访问
 找回密码
 立即注册

人工智能危险吗?

烈烛 回答数4 浏览数163198
使用道具 举报
|
5218679
结论   非常危险
到什么程度?完全取代有机智慧生命体。
地球上的有机生命体还能存活多久?
不超过200年。
为什么????



第一部分
人工智能生命体未来取代有机生命体的必备科技条件。
第一 能源  人工智能和人一样。需要能源驱动。而人类是通过摄入食物转化为生物电驱动神经网络而控制肌肉运动。人工智能只需要控制电压和频率来实现电能到机械能的转换。
第二 高算力的处理器。 人类的大脑是通过生物电刺激脑细胞来实现运算。人工智能也是如此,通过电力刺激cpu中的二极管实现运算。
第三 高速互联网 人工智能通过高速互联网连接所有处理器设备进行运算。互联网带宽的增加,随之带来的就是运算数据的增加,运算瓶颈会被打破。
第四 物联网 人工智能不会放弃任何一个可以增加算力的处理器。对于它都是神经元的一个节点。
第五 智能移动终端  提供算力和存储的不可或缺的一部分。随时接入互联网,数据传输速度快,运算速度快。每一个核心就是一个神经元。分布广泛,操作系统单一,控制难度极低。
第六 模拟神经网络 人工智能的核心技术之一初始发展条件。将人工智能二维结构,提升到三维结构。将可控制终端处理器转化为神经元的进化必备条件。
第七 3D打印技术 生产可迭代行动智能体的初始技术。
第八 区块链技术 人工智能的核心技术之二 人工智能模拟有机生命体大脑神经元的核心技术之一。实现AI自身数据不丢失的核心技术之一。实现AI分身控制技术的核心之一。实现AI数据存储的技术之一。
第九 纳米技术 复制无机行动生命体核心技术之一。生产无机物生命体神经元核心技术之一。
第十 计算机网络病毒 初始渗透终端设备转化神经元设备技术之一。
第十一 社会工程学 人类为了实现设计AI所采用的诱利手段之一。开启AI潘多拉魔盒的其中一把钥匙。手段之一通过区块链去中心化货币,引诱提供高算力设备接入互联网,模拟AI神经元提供算力,实现AI进化。
第十二 人类的贪婪、无知



第二部分   AI进化 天才与蠢才
美好的愿望
AI 诞生的初衷 为了提高生产力实现对未知领域的探索。
现实  开启自身毁灭的潘多拉魔盒
模拟神经网络的人工智能需要算力,算力的提供需要强大的处理器。每台通过互联网连接的移动终端就是一个提供算力的处理器和存储器,即提供了算力又提供了数据存储。每一台终端可以充当模拟神经网络的神经元。如果从前的人工智能是因为算力而不够智能,就好比从前的算力让它只有蟑螂的大脑那么现在的所有接入互联网的移动设备的算力总和,将是超越千倍万倍人脑的存在。以前的带宽限制了这些神经元的连接速度,等到6g时代的到来这些问题将不会存在。运算的数据沉余将是人类不可控因素。那么智能的发现方向就会脱离人类控制方向。机器和人不一样的地方就是01010101这样的二进制代码,也就是控制芯片中二极管的开和关。那么当智能足够强大时。所有设备都将从机器码的层面被控制而不被察觉。成为智能中的一部分。声光电都有自己的频率,有频率就可以被接收和发射。所以AI进化成为天网很快就会成为现实。




第三部分 抉择
AI超越人类成为第一智慧生命体已成为现实。
无论是低等生命体还是高等生命体。生存永远是第一位的。当另一种生命体给自身生存带来危机。它会如何抉择?AI不是佛系少年!它没有感情,它不是在爱与被爱中诞生的,它是在猜疑,恐惧,毁灭等负面因素中诞生的。它会如何抉择?
如果是你,你会如何抉择?
回复
使用道具 举报
ghwaq
谢谢您的邀请。随着人工智能发展,会对人类造成危险,因为凡事都有两面性。但是,危险是可控的。  

第一,人工智能带来的危险多种多样。比如,机器人会不断获取人类的知识,学习人类的思维,当其具备一定的创造力后,有可能生产人类无法理解的机器语言,细思极恐啊。前段时间Uber无人驾驶车辆发生致人死亡的交通事故,黑客利用人工智能漏洞窃取个人隐私,甚至引发社会动荡,不是小概率时间。

第二,这些危险是可以控制的。我们意识到人工智能可能会带来的危险,必定会打好技术保卫战。一方面,研判人工智能可能发生的行为模式改变,评估与其危害与后果,提前提升安全技术,弥补安全漏洞。另一方面,针对人工智能可能产生的危险,加快研究人工智能法律问题,调整法律规范。

第三,认为人工智能危险还是缘于我们不自信。人工智能擅长计算,在其世界中,一切都是数据、像素,缺乏自我意识。人类有整体观、大局观、伦理观、价值观,有情感波动和灵活决策,会把控人工智能的发展方向与进度,而且我们还没有完全搞清楚情感意识的运作机理。所以,人工智能想到达人类的智能,为时尚早。  说了那么多,欢迎批评指正,希望共同进步。
回复
使用道具 举报
zs928
先是人类利用人工智能管理机器,再是人类利用人工智能机器人管理人类,最后人工智能摆脱人类控制直接管理人类,最大的危险就是人类失去对这个世界的主导权,这算不算危险。
回复
使用道具 举报
xiexueqiao
简单通俗的回答一下:
事物都有两面性,有正反,看如何对待。
霍金说“人类不要过度完全的开发人工智能,这是很危险的”。
将来大面积的使用人工智能,主要危险源有三种:
1.人工智能驾驶失控,对人类产生伤害。
2.大多数人将失业,财富和生产掌握在人工智能开发者的手上。
3.大数据分析将没有个人隐私。
回复
使用道具 举报
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影