|
爬进E谷
| 未知
有人担心机器人会杀人,有人担心机器人会取代工作,然而更多时候,机器人在这些方面的功能没有完全完善:
处理文字信息
机器比以往任何时候都能更好地处理文本和语言。Facebook可以为视障人士朗读图片的描述。谷歌做得很好,建议简明扼要地回复电子邮件。然而,软件仍然不能真正理解我们的话的含义和我们与他们分享的想法。波特兰州立大学的梅勒妮·米切尔教授说:“我们能够采用我们所学到的概念,并以不同的方式将它们结合起来,并在新的情况下应用它们,然而这些人工智能和机器学习系统不能。”
还不能自主决定完成任务
阻碍机器人革命的现实鸿沟。机器人硬件已经变得很好了。你可以花500美元买一架带有超清摄像头的手掌大小的无人机。搬运箱子和用两条腿走路的机器也有了改进。为什么我们不都被熙熙攘攘的机械帮手所包围呢?今天的机器人缺乏与其精巧的肌肉相匹配的大脑。让机器人做任何事情都需要对特定任务进行特定的编程。他们可以从反复的试验(和错误)中学习像抓取物体一样的操作。但这一过程相对缓慢。一个很有前途的捷径是让机器人在虚拟的、模拟的世界中训练,然后将来之不易的知识下载到机器人的实体中。机器人在模拟中学到的技能,在被转移到物理世界中的机器时是如何不总是有效的。
防范AI黑客攻击
运行电网、安全摄像头和手机的软件受到安全漏洞的困扰。我们不应该期望自动驾驶汽车和家用机器人的软件有什么不同。事实上,情况可能更糟:有证据表明,机器学习软件的复杂性引入了新的攻击途径。
人可以在机器学习系统中隐藏一个秘密触发器,当看到某个特定的信号时,它就会切换到邪恶模式。纽约大学的研究小组设计了一种路标识别系统,该系统工作正常-除非看到黄色的便条。将其中一张便条附加到布鲁克林的停车标志上,导致系统将该标志报告为限速。这种花招的潜力可能会给自动驾驶汽车带来问题。 |
|