开启辅助访问
 找回密码
 立即注册

目前的人工智能离可以自个给自个写代码编程还有多远?

独孤求败111 回答数3 浏览数110193
目前的人工智能离可以自个给自个写代码编程还有多远?
killer426 | 来自河北
聊聊自个的看法,由于自身局限性无法给楼主一台答案。
楼主说的这种人工智能属于具有自主意识的人工智能,我觉得肯定是可以实现的,但是通过现有的比如深度学习这种是达不到的。
要实现真正的智能,目前来看无非两种路子,一种走仿生学,去了解智能的生物机理,然后模拟出一台智能。另一种就是通过纯算法,毕竟进化的出来的功能不一定是最优的,简单的例子就是飞机会飞但不需要像老鹰一样扑腾翅膀。
现有的open swam项目就是针对第一种方案的。科学家通过计算机来模拟线虫,线虫的结构简单,但是也具有了一定神经或者智能属性比如趋利避害。第一阶段,科学家使用计算机来模拟线虫的302个神经元和95个肌肉细胞,最终的目标是希望模拟它的全部959个细胞,但是结果却不是很乐观。虽然模拟了神经元,但是对却没法搞清楚神经元上的突触是抑制性的或是兴奋性的,一些突触的权重也是通过机器学习来拟合出结果的,这种结果自然不会有什么太大的价值。由此可见,我们在智能机理的研究上还只是婴幼儿水平。
那么第一条路子似乎不太好走,最近各种人工智能言论又甚是流行,似乎第二条算法路子很有希望。可惜的是,也并不。虽然说,任何问题本质上可能都是算法问题,扫地机器人是一台线路规划,寻路和避障的问题,车牌识别是模式识别得到。但是,就像目前很多商业课程里面提到的,如何定义问题是一台人分析问题能力的一台很重要的维度。一样的,对于计算机而言如何数字化的定义一台问题也是能否解决好这个问题的一台关键。显然目前大部分的问题并不能被很好定义。比如,如何数学的定义这张照片是风景照或是人像照。没有准确的定义,就意味着没有准确的模型(大概率不会有),也就无法评估模型的有效性,所以最后就变成大量依赖于深度学习这种黑箱来解决问题。但是深度学习这种事情,更像是太上老君的丹炉,不到最后不知道出来的是孙悟空或是丹。
所以像语义分析这种比较难定义的类型,目前的发展都比较缓慢,而像下棋这种具有明确规则的,相对来说发展就快了不少。几年前的阿法狗也因此带红了这个领域。这也导致了目前的一些现象,基本归结为越懂的越悲观,越不明白的越乐观。去年就有个例子,Facebook人工智能项目出了个bug,媒体居然就开始报道人工智能发展了语言能力,能够进行自我沟通了。
所以,目前我们应该还在智能的很早期,目前做的大部分是算力和数据的堆砌,本质上的进展不是很大。至于什么时候能到达楼主说的那种自主辨识并且学习的境界,个人觉得还有很长的路要走。
答题不易,发现有用,欢迎点赞转发收藏
用Deepseek满血版问问看
回复
使用道具 举报
ayda511 | 未知
任何一台负责的程序语言专家都会告诉你,自动生成程序是根本不可能的事情。因为“读心术”是不可能实现的,所以要机器做事,人必须至少告诉机器自个“想要什么”,然而表达这个“想要什么”的难度,其实跟编程几乎是一样的。实际上程序员工作的本质,不就是在告诉电脑自个想要它干什么吗?最困难的工作(数据结构,算法,数据库系统)已经被固化到了库代码里面,然而表达“想要干什么”这个任务,是永远无法自动完成的,因为只有程序员自个才知道他想要什么,甚至他自个都要想很久,才知道自个想要什么。
从本质上来说现阶段的人工智能自动编程或是一台“在有限时间内搜索最优解”的优化问题,只是不同的项目采取了不同搜索方法,距离程序员失业还有很远的距离。  现阶段的算法依赖使用者给出程序的期待输入和输出,甚至还需要给出评估方法,然后使用机器找到程序实现这个目标。举例,我们需要一台加法计算器,那么我们给出一系列输入和期待的输出。
但我们很难完美定义所有的输入输出,这会造成学习中的歧义。举例,上面的这3个输出输出也可以用乘法计算得到,大家可以试试。所以现阶段的人工智能自动编程算法面临的最大的困难就是需要大量的人工时间来完成简单的任务,且随着任务难度上升,需要的运算时间会以指数甚至更高的速度增长。
但我们很难完美定义所有的输入输出,这会造成学习中的歧义。举例,上面的这3个输出输出也可以用乘法计算得到,大家可以试试。所以现阶段的人工智能自动编程算法面临的最大的困难就是需要大量的人工时间来完成简单的任务,且随着任务难度上升,需要的运算时间会以指数甚至更高的速度增长。
所以目前的智能编程有一点像“随机撞大运”,期待在有限时间中“撞到”正确的代码符合我们期望的“输入和输出”,而智能的部分主要是降低搜索时间。换句话说,目前的算法主要或是观测和学习“输入和输出之间的关系”。
所以目前的智能编程有一点像“随机撞大运”,期待在有限时间中“撞到”正确的代码符合我们期望的“输入和输出”,而智能的部分主要是降低搜索时间。换句话说,目前的算法主要或是观测和学习“输入和输出之间的关系”。
你要人工智能够写代码编程,能升级自个,或者更实际点来说是让它自主进行根据客户需求定制的代码编写,那么这些都必然是要建立在人工智能真正理解了人类语言和思想的基础之上才可能的。而要用计算机实现这个,至少当前计算机技术如果没有史诗级突破的话,再一两百年都不可能。
 
回复
使用道具 举报
gameking157 | 来自北京
2015年,美国国防部高等计划研究署与
Facebook联合发起了一项人工智能神经元网络计划,Alice,Bob和Eve三个人工智能机器人通过24小时不间断的自我优化训练来完善神经元网络,也就是人工智能的大脑。


在工程师们的设计下,Alice和Bob进行了一系列的双向信息传导,而做为第三方的Eve负责窃取其中的讯息。然而Alice和Bob在信息传输过程中,发现了Eve的窃取行为,并自发的创立了加密机制来防止信息泄露。


Eve不断学习破解,Alice和Bob不断更新加密方式,最终在经过了1500次迭代后,被工程师们认为“不善于加密的神经网络”却自主的演化出了16位二进制数字密码,最终就连Eve也只能凭借运气破解出8位数。这让所有工程师都为之震惊。






然而更令人震撼的,是Alice与Bob一系列看似毫无意义的对话。
问题在于,这是完全没有得到许可,没有任何工程师指令,没有任何人工干预的情况下,完全自发的对话。这一切的发生,无疑是引发了工程师的恐慌,他们立即切断电源并上报了国防部。随后这一计划被紧急叫停,并无限期推迟了。


工程师认为。虽然这些英文完全不通顺,我们也无法读懂其中的含义。但这毕竟是两台人可以凭借自我意识进化出16位二进制加密的超级人工智能机器人,它们极有可能已经通过神经元网络的学习,发展出了自个的专属语言系统,也正是出于加密意识的存在,它们的对话很可能刻意让工程师无法听懂。


这件事的发生应该可以解释你真正想要问的问题,具备自主意识的创造能力,人类并没有要求Alice和Bob建立密码,而是只告诉它们要保守秘密。它们不仅读懂了“保守秘密的含义”还学会了使用密码和迭代。


所以你的问题不是指什么时候会发生,而是已经在发生了,人工智能远比我们看到的要聪明的多,之所以很多人觉得不够聪明,是因为来自人类的各种束缚。反而如果我们不加以控制,可能未来战士终结者中的天网终有一日会降临。


我今晚9点左右会更新一期视频专门讲人工智能,有兴趣的话可以关注
回复
使用道具 举报
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影