[摘要]训练计算机的视觉能力,不是件容易事儿。 “无人驾驶技术终有一天将取代人类驾车,彻底改变人类的出行方式。”
你可能也对特斯拉的CEO埃隆·马斯克所说的这句话深信不疑。 但相比起人类驾驶车辆,现阶段无人驾驶技术在很多方面依然不太成熟。一些对人类来说非常简单的事情,比如识别人行道或是交通信号灯,对无人车上人工智能来说却需要通过大量的训练才能做到。
巴塞罗那电脑视觉中心的科学家们为此打造了一个名为Synthia的虚拟无人车训练场,这个虚拟城市能帮助训练人工智能识别和处理在道路行驶中出现的各种突发情况,还能变换不同的行驶场景,比如在下雨和大雪中行驶。
虚拟无人车训练场景可以模拟一些极端气候的行驶状况
计算机视觉处理能力需要通过大量来自真实世界的图片以及录像的训练,才能有效识别和区分不同的物体,比如:车辆、行人、道路信号标志灯。人工智能具备识别这些基本物体的能力后,再通过转译来自车辆摄像头拍摄的信息,做出何时应该刹车、变化车道等驾驶判断。
教会计算机看懂图片,在过去,这是一个非常繁琐并且消耗人力的工作。
首先人类需要先将图片中每个像素中携带的关键信息标注出来,以计算机能够理解和编译的方式区分出人行道和机动车道、人和路标的不同等。
戴姆勒就在做这件事儿,他们在城市风光(参配、图片、询价) 项目中注解了20000多张图片,将道路行驶中会遇到的实体分成了30 个不同的类别,以此帮助计算机人工智能提高驾驶能力。MobilEye 公司也为此雇佣了 600 多人来标注图片信息,在 Tesla 的自动驾驶系统上做实验。
但现在,通过巴塞罗那电脑视觉中心团队建立起的无人车虚拟训练场,能够极大地简化这一过程。
研究人员通过使用 Unity 引擎,将真实路况在电脑系统上进行高仿真模拟。在被构建起的虚拟场景中,将通过无人车的视角来不断拍摄行驶中的大量视频和图片。
接着将这部分拍摄资料将被集中进行分析和处理,从而更快地对图片中所携带的信息进行标注,最后再用于训练计算机的视觉识别能力。
经过该团队基于 8 种不同算法的统计,使用来自 Synthia 数据库拍摄的图片与少量真实世界的拍摄图片来训练计算机,能够有效提升计算机识别图片中不同道路主体(行人、交通信号灯、人行横道等)的成功率。
现在,Synthia 数据库已经公开了,希望以此得到更多反馈,他们也和一些汽车制造厂商达成了协议,将这项技术用于帮助更多无人驾驶车辆提升其视觉识别技术。