开启辅助访问
 找回密码
 立即注册

什么样的人工智能叫人工智障?

wangjinfan 回答数0 浏览数1019
目前大多数情况下的基于深度学习的人工智能,其实是薛定谔的人工智障。当然,通过算法优化,人工智障那一面的发病率也许很低,但目前基于深度学习的人工智能最大的问题是:
1. 解释性低

只要人工智能的可解释性度低的问题还存在,那么人工智障的发病概率就不会降到0。
当然,这不是否定目前人工智能进展的意思,毕竟人也是会犯糊涂的,而且人工智能在有些领域做得比人糊涂概率还低,例如alpha go比人类顶级选手还厉害。
例如今年六月特斯拉的AutoPilot就出问题了,据新闻说因为货车车顶反白光,让AutoPilot摄像头产生致盲反应。但这也是交通事故发生后,特斯拉根据事故过程推断的,而不是AI告诉你的,AI不会告诉你,“我之所以撞上去,是因为大意了,没有闪。”



2. 不讲武德的推理

虽然很多公司在人脸识别上做得准确率非常高,几乎不会认错人,但有的识别系统只知道谁是谁,并不能力理解其形态。
傻子都能“知道”。关键在于“理解”。—— 阿尔伯特·爱因斯坦
在我一篇被资深日报收录的回答里(人工智能的水平较低是因为数据库不足和运算处理速度不够吗?),举了几个人工智障的例子
例如抓拍行人闯红灯的系统,只知道当下状态是红灯,这时候镜头前有个董明珠(的图),结果就直接认为董明珠穿红灯了。而正常人是不会做出这种不合理的“推理”的。


同样的,赵雅芝也遇到了。



人在家中坐,锅从天上来

虽然这次检测对了,这次是真的人而不是印在公交车的图片。但这违法原因有点不讲武德了。



偷袭我一岁的小同志,不讲武德!

3. 使用的训练数据不合理

而目前的人工智能,主要是靠机器学习这一波浪潮撑起来的。而机器学习,有个漫画讲得有点道理(虽然不完全对)


但由于数据本身很难做到全覆盖,很难分布合理。
数据系统的歧视会导致算法歧视。“人类文化是存在偏见的,作为与人类社会同构的大数据,也必然包含着根深蒂固的偏见,而大数据算法仅仅是把这种歧视文化归纳出来而已。”(张玉宏&秦志光&肖乐,2017)[1]
例如谷歌图像识别算法曾将黑色人种的图片自动添加“大猩猩”的标签。


然而当时谷歌解决这一争议的方式是直接把大猩猩这个类别从训练数据中移去了。也许谷歌后面想了其他办法补救,不然为了弥补一些数据歧视而带来新的数据歧视。我刚刚尝试了传一张大猩猩的图上去,确实不会直接被标记为gorilla(当然可能是我测试得不够多)。


当从中可以看到,很多时候,由于你很难完全理解你的数据是否合理,很难完全理解模型推理的过程,所以只能等人工智障发病后才能补救。

4. 神经网络的灾难性遗忘

你一台神经网络可以有几百亿个神经元,但如果你这个神经网络要完成多项任务,就会有灾难性遗忘[2]。如下图,横轴是旧任务的error,纵轴是新任务的error,他们要么有一台很高,要么两个都很高,很难做到两个任务error同时低。


如果想要两个任务都能表现得好,那么着两个任务需要是相近的任务。



总结

由于解释性低、推理不讲武德、使用的训练数据不合理、神经网络的灾难性遗忘,在某些情况下,目前基于深度学习的人工智能会发病成为人工智障。杜绝发病是不可能的,而降低发病率,是一门艺术。
参考


  • ^]张玉宏,秦志光,肖乐.大数据算法的歧视本质[J].自然辩证法研究,2017,33(05):81-86.
  • ^An Empirical Investigation of Catastrophic Forgetting in Gradient-Based Neural Networks  https://arxiv.org/pdf/1312.6211.pdf
使用道具 举报
| 来自上海
当贝投影