开启辅助访问
 找回密码
 立即注册

人工智能目前瓶颈是指什么?

Θ帅Θ 回答数5 浏览数884
人工智能目前瓶颈是指什么
使用道具 举报
| 未知
zhqhljchj | 来自北京
瓶颈在人工。
回复
使用道具 举报
AASispcp | 来自北京
在所谓三架马车方面,都有一些瓶颈,制约AI应用推广、也制约基础理论向纵深发展。
(1)算力方面,目前很多巨大深度学习DL模型表现已经非常好和解决非常广泛问题,但训练和运行起来太昂贵,要巨大的服务器集群才行。并且,算法没有深入优化,只是由极大公司验证了原理正确,而其它想用的公司自己又没有能力去在效率上进行大规模和比较彻底的优化。所以这类超大模型基本没人用起来,可惜了。放小一些规模,就算是只需要单个GPU板卡或者手机主芯片里的GPU核,因为这类都是属于“通用AI芯片”的方法,工程链路上本来是不存在一个效率优化的步骤的:标准模型架构跑标准算法)。所以就算跑满算力,仍然给新的更好模型带来困难,新的应用也难以拓展。最后一类“专用AI芯片”因为讲究超高的计算效率和能耗和硬件成本等,这类芯片设计公司内部最好有算法团队,他们部分任务就是面对自己AI芯片架构去对算法深度优化。但对人才能力要求很高,就也只有少量公司做得到。大型和中等和最小专用AI芯片,都在等待出现更好的研发工具软件,和中层运算级别上的标准化方法(如英伟达用的CUDA),虽然不会是极致优化,但方便让大多数普通工程师都用得起来,整体生态的技术水平就提高了。
(2)数据方面,很多公司已经具备它本行业的海量数据了(认为是自家财富,盲目自豪中),DL模型训练也必须。但是最大问题是数据中有用的信息、规律和知识,远未充分挖掘出来。所以关于数据,除了继续追求量,也应该注重质了。这点与公司业务里面AI来做这部分的“子任务”和场景定义相关。有了好的业务逻辑设计,数据的语义就可以更好“切题”了。从数据获取、清理和标注过程里,就都可以提高数据的可用性,和切题或者正确性。当然和模型训练的策略和流程也有关、与单元功能测试也有关。并非一下子走到“小数据”等太远大的目标,而是对充满世界规律的经验数据的设计中,添加部分理性结构。
(3)算法就更复杂热闹了。国内九成以上公司都是下载开源算法库、同时基于顶会论文和GitHub等上的完整工程去构建自家系统。算法工程师对标准几种DL功能如何用是了解的。但是论文中的场景任务多数与自己公司的不同,数据也不同。如何适应呢?缺少对于DL方法的更加深入的理解力,就没法了。于是所见绝大多数工作就是盲目地获取更多数据、盲目流程去训练,有时候似乎性能有点提高,但也不知道为啥,所以使用条件稍变就又不灵了,再训。好一些的工程师团队,对几种流行模型的功能原理和参数,有些理解,然后开始组合不同模型、微调某些结构参数等。这样的过程盲目且耗时。结果就是停止,结论说本公司业务不适应、或者说本公司数据不够等等。其实还是算法发掘远远不够。还有一个现象就是用了几种DL模型完全无效以后,称为本公司AI无法落地,模型参数和数据与公司业务或者体验,完全不搭。
以上只是简单的基于DL的目前流行AI的三方面瓶颈。如果更加对技术背后的原理吃透一些,会缓慢提升。因为目前这样仍然不是从头的创作,而是半路拿来。至于“强AI”和DL之外的努力,本回答免去。我在别的问题上有多次详细回答,但还不了解知乎里如何关联以往的回答,抱歉。
回复
使用道具 举报
wwz1990 | 来自北京
弱人工智能缺项目,缺能力,缺创新。
一群搞弱智能的给投资人们画了一张强智能的饼,自己做不出来就开始黑化它了,什么取代啦、觉醒啦、背叛啦……巴拉巴拉。
强人工智能缺钱,缺人才。
高处不胜寒啊,特别理解马克思为啥穷了。懂强智能的人实在是太少了,让弱智能专家去理解强智能实在是太难了。
回复
使用道具 举报
cxxftty | 来自北京
大家的目标是动物智能,而不是人的智能。若考试目标定在60分,往往考不及格。目标就这么笨,最终实现出来的也智能不到那去。

  • 自学:AI完全靠自学,动物也靠自学,而且最多学几个月;但人离不开教学,教也得教16年。AI几个月的自学(只有数据,没有环境互动)能赶上动物就算烧高香了。
  • 语言:没看到其他人真正去做语言理解,用感知智能那一套成功模式去做认知智能,根本不可能理解语言的含义,也不会有复杂的逻辑,只有相关性。不懂语言顶多是个动物。
  • 辩证:要么对,要么错。深度学习的结论是死的。这是感知智能的弊端。认知智能需要辩证的去看待问题。很多事情可对也可错,看你怎么去理解。就像树上有10只鸟,打死一只还剩几只。答案有很多种。这里面的复杂思维只有人才有。需要用语言来描述知识和逻辑,需要人来告诉它其中的道理。现在的AI有做这些吗?没有,顶多就是个结合了计算机的动物。
别忘了,从动物到人还差着十万八千里。地球上出现了多少种动物?具有人类智能的却才一种。
回复
使用道具 举报
daozhi | 来自北京
先说三个原因:
1、想象一下,教人一门外星语,只教读写,但不教每个词的含义,然后要人去用这门外星语交流,会是个怎样的情形?
基于文本类预训练的对话系统类似于此,这是人工智能更像人工智障的原因。
2、理论上图像文字一起学,可以部分解决只识其字不知其义的问题,尤其是使用音视频、VR、AR等手段,可以提供类似人类孩子的学习环境。
问题是:目前的人工智能还没有算法可以做到,让计算机从没有标注的原始图像中划分出物体(目前物体识别算法都需要先做人工标注,这极大的限制了机器认知能力的完善)。
也就是机器目前没能力从生活场景中自行学习。
3、无监督图像语义分割算法获得突破,配合传感器构建的反馈系统,可以使机器变得聪明很多(主要是能够自主从生活场景中习得知识),还需要引入一套需求机制,才能真正的成为一个有“灵魂”的新物种。
这个机制设计说简单也简单,比如:以完成主人的指令为目标;说难几乎无解,因为任何需求机制的演化结果都是不可控的,要知道只是生存和繁衍的需求,就驱动了人类构建出现在的整个文明体系。任何的需求机制设计都很难想象在机器的演化下会产生什么结果。
综上,假如可以先不管第三条的情况下,目前机器学习“卡脖子”技能是让机器能从图像中圈出所有的物体来。
从前面所述可以感觉到,其实我们离真正的人工智能只有薄薄的一层窗户纸,捅破这层纸,人工智能将驶入高速路,然后就将面临一个以人类命运为赌注的豪赌:要不要赋予机器自主意识(需求机制),点了眼睛的龙就不再是人所能把控的。

<hr/>更详细的解释参见文章:
老憨:机器大脑算法基础系列(二):从生活中学习
回复
使用道具 举报
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影