眼观六路耳听八方 无人驾驶汽车也需要眼睛和耳
据《连线》杂志报道,人类驾驶汽车时,依赖双眼双耳等非凡传感器获取周围环境信息。面对同样的挑战,无人驾驶汽车则需要更多种类的传感器来观察周围环境。不同于仅依赖视觉和雷达的普通自动驾驶汽车,无人驾驶汽车的装备已经大大扩展了其感知能力。它们配备了六个摄像头全方位捕捉周围环境动态,雷达帮助测量与其他车辆的距离,至少一个激光雷达进行精确的空间扫描。即使装备了这些高科技传感器,这些装备可能仍不足以应对所有挑战。
想象一下,当一辆消防车从后方迅速接近时,我们的耳朵捕捉到了声音信号,通过立体声系统我们甚至能够判断其位置和行进速度。听觉在人类驾驶过程中发挥着至关重要的作用。目前的无人驾驶汽车在听觉方面却有所欠缺。工程师们正在努力研发如何让无人驾驶汽车拥有与人类相似的感知能力,尤其是听觉能力。
杰夫·米勒,一位研究无人驾驶汽车系统的USC专家表示:“由于这项技术相对较新,我们仍在寻找最佳答案。”而Waymo公司在凤凰城测试的无人驾驶微型面包车已经开发出了先进的麦克风系统。这些麦克风能让机器人汽车听到声音,其距离是之前传感器的两倍,甚至还能辨别声源。最近的一次测试中,Waymo的无人驾驶汽车在钱德勒市遇到了各种应急车辆,如警车、救护车、消防车等。这些车辆的特殊噪音对于无人驾驶汽车来说是一种全新的挑战。Waymo汽车上的传感器记录了大量的这些数据,未来这些数据将被用于建立应急车辆声音数据库。这意味着,当遇到紧急车辆时,Waymo的无人驾驶汽车将能够迅速做出反应,比如靠边停车或者给紧急车辆让路。
除了听觉方面的进步,无人驾驶汽车还需要发展其他类型的交流手段。在人类驾驶中,点头、微笑或挥手都可能传达出某种信息或意图。虽然无人驾驶汽车无法做出这些动作,但它们可以通过车辆到车辆(V2V)和车辆到基础设施(V2I)的无线电通信,以与其他车辆进行有效的“对话”。例如,苹果最近申请了一项无线车辆通信技术的专利,凯迪拉克的CTS轿车能够与其他凯迪拉克轿车进行“交谈”,以提醒它们减速或采取其他行动。美国国家公路交通安全管理局已经提议到2020年所有汽车都必须使用类似的系统。杰夫·米勒预测,“在未来几年内,V2V技术将取得长足的发展。”
尽管计算机在数据处理和分析方面的能力远超人类,但在理解和解释感官信息方面,计算机仍然存在局限性。事实上,人类大脑的强大之处在于它能够处理并理解来自各种感官的信息输入。虽然全球每年仍有大量交通事故是由于人为失误造成的,但计算机有望大大减少这种失误率,甚至将其降至接近零的水平。为了实现这一目标,无人驾驶汽车必须具备完整的感知能力,并全面理解自己所经历的世界。它们不仅需要看到、听到,还需要理解和反应,才能真正实现与人类驾驶无异的智能化水平。