开启辅助访问
 找回密码
 立即注册

目前的人工智能是否走上了数学的极端?

457840844 回答数5 浏览数877
人工智能在当下如火如荼,有一台很重要的原因是计算机的计算和存储能力达到了一台新的高度,让原来不敢想的事情成为可能。但是,这种计算能力的高度是基于数字电路、集成电路的高速发展带来的。
       目前我所了解的人工智能领域,包括机器视觉,包括语义分析知识图谱等,都是基于逻辑和结构的基础上去找答案,去找特征,去组织关系,是数字的结构的。但最大的问题就在这里,当开发者依据个人的倾向去组织数据确定逻辑和结构的时候,已经不存在所谓的智能了,就已经将核心固化了。
       所以,我理解智能应该是存在很大程度上的巧合的,也存在很大程度上的随机,凭借数学公式是不能实现的。所以,我想,在数字技术之上的模拟技术是否才是这个问题的答案?有么有类似的案例?结果如何样?
使用道具 举报
| 未知
刘铁龙 | 来自云南
不用数学用啥?靠蒙吗?
不好意思,靠蒙(随机)的蒙特卡洛方法还是要数学
数学是所有类型的计算机唯一掌握的建模工具
回复
使用道具 举报
kerh | 未知
恰恰相反,现在的人工智能的问题是数学太少太少了,或者说现有的数学工具不够强大,而不是“走上了数学的极端”。神经网络这种混沌系统缺乏强大的数学工具来对其进行有效的研究,这种数学的不足恰恰导致了对于模型的设计和改造都是靠直觉,说难听点就是靠“意淫”,而不是基于坚实的理论体系指导。关于这一点,对比一下10-15年前和现在的顶会论文就明白了。
回复
使用道具 举报
2209870 | 来自北京
我和高赞回答的意见恰好相反。就是您有可能是想的太多,但是读相关的资料太少。尤其是2006年以后的相关资料太少。
弱弱的说一句。题主您确定您是真的阅读过深度学习的相关书籍吗??
我贴一段Keras之父,谷歌人工智能研究员Chollet的话吧。。
比如,思考这样一个问题,想要学习让火箭登陆月球的正确的发射参数。如果使用深度网络来完成这个任务,并用监督学习或强化学习来训练网络,那么我们需要输入上千次、甚至上百万次发射试验,也就是说,我们需要为它提供输入空间的密集采样,以便它能够学到从输入空间到输出空间的可靠映射。相比之下,我们人类可以利用抽象能力提出物理模型(火箭科学),并且只用一次或几次试验就能得到让火箭登陆月球的精确解决方案。同样,如果你开发一个能够控制人体的深度网络,并且希望它学会在城市里安全行走,不会被汽车撞上,那么这个网络不得不在各种场景中死亡数千次,才能推断出汽车是危险的,并做出适当的躲避行为。将这个网络放到一个新城市,它将不得不重新学习已知的大部分知识。但人类不需要死亡就可以学会安全行为,这也要归功于我们对假想情景进行抽象建模的能力。
现在的深度学习就是没有基于逻辑和结构的基础上去找答案的能力。人家深度学习算法其实特别想有抽象建模的能力。,但是目前深度学习做不到。
至于你说的数学的极端。我了解的情况和你想的恰好相反。
关于深度学习,最令人惊讶的是它非常简单。十年前没人能预料到,通过梯度下降来训练简单的参数化模型,就能够在机器感知问题上取得如此惊人的结果。现在事实证明,你需要的只是足够大的参数化模型,并且在足够多的样本上用梯度下降来训练。正如费曼曾经对宇宙的描述:“它并不复杂,只是很多而已。”
现在的深度学习其实是这样。
想象有两张彩纸:一张红色,一张蓝色。将其中一张纸放在另一张上。现在将两张纸一起揉成小球。这个皱巴巴的纸球就是你的输入数据,每张纸对应于分类问题中的一个类别。神经网络(或者任何机器学习模型)要做的就是找到可以让纸球恢复平整的变换,从而能够再次让两个类别明确可分。通过深度学习,这一过程可以用三维空间中一系列简单的变换来实现,比如你用手指对纸球做的变换。
你自己体会一下。。
回复
使用道具 举报
komolodo | 来自江苏
这是一个很有价值的问题,对于初学者尤其重要。从题主的补充说明中,可以看出题主进行过深入的思考。只是题主或许不太熟悉人工智能的早期发展历史,同时稍微混淆了几个概念。下面,我尝试提供一些观点。
按照普遍的认知,现代意义上的人工智能,正式提出于1956年的达特茅斯会议。相比于古早时期的幻想(如中国战国时期的偃师和西方中世纪炼金术中的Homunculus),1956年的定义明确了“智能可以独立于肉体存在”,然而站在今天的视角看,当时人们对于人工智能的定义仍然很不清晰。从当年proposal的首页截图中,可以看到他们提出的前两个问题是“自动化的计算机”和“如何编写程序让计算机学会使用语言”。前者显然是非常模糊的说法;而后者(也许是受到了图灵测试[1]的影响)看似跟今天的自然语言处理非常相似,可细看描述就会发现,先驱们并没有把具体任务形式化地定义下来。也许是这些不明确的定义给了人们莫名的信心,当时的10个参与者提出了“两个月内解决人工智能基础问题”的豪言壮语,让今天的人们忍俊不禁。后来的事情大家是知道的:这些基础问题直到今天也没有解决(甚至接近解决),但是这10位先驱中有5人先后荣获图灵奖。所以挖坑早是多么重要!(最后一句划掉)


达特茅斯暑期研究计划的proposal首页

如果对人工智能早期历史感兴趣,可以浏览维基百科的人工智能史页面,也可以开2倍速听下我的讲解(第1课第2部分):
谢凌曦:第1课 人工智能综述回到正题上来。无论早期人工智能的定义多么幼稚,有一个事实是确定的:现代人工智能,脱胎于数学、神经科学和当时尚在襁褓中的计算机科学。我们再看维基百科对于人工智能的定义:
人工智能(英语:artificial intelligence,缩写为AI)亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通计算机程序来呈现人类智能的技术
也就是说,现代人工智能的共同特点,就是通过高速计算机来实现(有时候甚至可以说复现)人类行为。以此可以回应题主的第一段话:确实,如果未来人类没有造出仿生机器,那么人工智能只能通过数字集成电路来实现。一个有趣的例子是,科学家们通过把电极插入老鼠和猴子的大脑,可以记录它们对于各种外界刺激的反应。如果我们将这个系统理解为一个机器,那么它确实在一定程度上不依靠数学实现了智能(或许应该叫做鼠工智能或者猴工智能)。当然,出于伦理的考虑,我们是绝无可能把人脑当成机器来使用的(虽然有各种类似的研究)。
再回到主线上来。题主第二段说,“目前我所了解的人工智能领域,……,都是基于逻辑和结构的基础上去找答案,去找特征,去组织关系,是数字的结构的”。正是通过这句话,我判断题主不太熟悉早期人工智能史。事实上,从1950年代开始,人工智能就存在着三个彼此竞争的流派:逻辑演绎、归纳统计、类脑计算。直至今日,也没有人从理论上论证三个流派孰优孰劣,虽然归纳统计在今天占据了压倒性的优势(包括机器学习和从中发展出的深度学习)。这其中,类脑计算的思想很终极也很容易理解:搞清楚人脑是如何工作的,然后用数学模型去复现它;可惜的是,虽然21世纪是生命科学的世纪(大雾),脑科学的进展还是没能满足人工智能的需求。
除了高冷的类脑计算派,逻辑演绎派和归纳统计派也进行了长达数十年的竞争。它们的本质分歧在于:逻辑演绎派希望能对任何任务建立起规则,并且通过严谨的逻辑推理来解决问题;而归纳统计派则认为,严格建模即不现实也不必要,“这个世界就是描述它自己最好的模型”[2]。1970年代,逻辑演绎派在符号人工智能的框架下搞出了专家系统[3],一举带来人工智能的第二次繁荣期;但是很快,人们就发现专家系统的使用场景过于受限,同时维护规则库的开销太大,人工智能进入第二次低谷期。带领业界走出第二次低谷期的,正是归纳统计派,包括后来被归为亚符号人工智能的统计学习理论[4]。再后来,手工设计模型遇到瓶颈,而1950年代就存在的连接主义(人工神经网络)在大数据的驱动下,进化为深度学习理论,基本上统治了人工智能领域,直至今日。
因此对于第二个问题的回答是:人工智能里存在其他学派,但是它们目前还没有跟归纳统计派抗衡的能力。但是,统计学习方法的缺陷是非常明显的(这正是题主的观点,也是业界普遍的担忧)。从我个人的观点看,我不相信统计学习能够实现真正的人工智能,但是它确实是当前人类掌握的最有力工具。特别是在深度学习出现以后,统计学习方法能够解决很多受限场景下的实际问题,因而形成了正向循环,获取了政府和工业界的大量投资。因而,从观感上,有一种“人工智能只剩下统计学习”的错觉,但我相信其他流派也还在努力,等待翻身的一天。
最后,我不太能够从数学上理解“智能存在很大程度上的随机”的含义。不知道是否有生物学或者遗传学专家,能够从物种进化的角度来分析。不过针对第三段所说的“数字技术之上的模拟技术”,我相信前面的介绍已经多少回答了这个问题:类脑计算就是希望模拟人脑,但是当前还不能在实际问题中看到应用。这里必须澄清:虽然人脑也是分区分层的,不过我向来反对将深度神经网络看做类脑计算(brain-like computing),它最多只能算做脑启发的计算(brain-inspired computing)。许多年前,我听过一个有趣的哲学辩论:人类的大脑,是否能够理解大脑本身?可惜我现在找不到相关材料了。
总之,人工智能的范畴很广,价值也很大。许多我们能够想到的问题,之前都已经有人做过各种各样的思维实验。我强烈建议初学者们,不要仅仅局限在深度学习的框架内,有空可以看看早期各种有趣的故事,至少要搞清楚业界是怎样一步步走到深度学习的,这对于形成完整的人工智能世界观大有裨益。最后的最后,说到未来,那一定是“道阻且长”,只有保持永恒的探索欲,才有可能突破当前瓶颈,找到新的道路。
回复
使用道具 举报
aiqi521 | 来自北京
你应该对数学、数字、模拟、人工智能都有误解,抛开这些的严格意义不谈,只讨论你所表达出的观点。
人工智能的目标就是让机器有智能,不同的时代,这个问题的可实现目标是不一样的,采用的方法也不一样。
最初,人们想的是让机器代替人的繁琐计算,这就算让机器有智能了。拿现在的一个计算器,回到那个时代,绝对是智能的巅峰。但是现在,一台计算机都算不上智能,更不用说计算器了。
后来,有了多个人工智能学派,其中两个最大的派别是符号主义和连接主义。符号主义是用人提供先验知识,让机器执行这个先验知识,得到智能;连接主义旨在模拟神经元,让它像人一样学习智能。
目前的人工智能,理念是从数据中学习,让机器自己学习智能。这个方式的起点(不是提出的时间,提出时间很早),应该是概率统计应用到自然语言。统计学方法搞自然语言,跟原来的规则学派吵架就吵了15年。最后统计学方法胜出,不是吵架吵赢了,而是规则学派的人陆续退休了(吴军《数学之美》中的观点)。
总之,人工智能都是建立在当前的硬件计算基础上的,数字逻辑是最基础的构建电路的方法。
人工智能的目标就是让机器有智能,最初是人梳理知识,传授给机器。发现这种方法受限后,现在的思路就是让机器自己从数据中学习,目前来看,这是合理的方式。将来的发展有可能推翻这个思路,但是目前来说,没有人能提出更好的哲学层面的方法。
人工智能一定是限定在某个计算机结构基础上的,你让一个简单电路具有的智能,和一台超级计算机所具有的智能,肯定能力上是不一样的,就像蚂蚁的智能和人类的智能不一样一样。
如果你的目标不是机器智能,比如你要个生物智能,那么生个孩子应该是目前最靠谱的方案。
回复
使用道具 举报
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影