当我们从汽车挡风玻璃向外观看时,和汽车摄像头的观看方式是完全不同的。人脑的内部运行会改变看到的东西,让细节在图像中心位置突出显示,同时又会注意边缘,留意危险点。路易斯·杜桑(Luis Dussan)认为,自动驾驶汽车也应该具备同样的能力。
杜桑创办了一家名叫AEye的创业公司,它正在开发一种新型混合传感器,尽可能让汽车“视力”达到人类的水平。设备包含固态激光传感器、低光摄像头、芯片,可以运行嵌入式AI算法,根据硬件的使用方式重新编程。这样一来,系统就可以判断,看看自己应该优先观察哪些位置,让视野更精准。
杜桑是AEye的创始人、CEO,他与洛克希德·马丁公司、诺斯罗普格鲁曼(Northrop Grumman)、NASA喷气推进实验室合作。最开始时,杜桑只是想开发AI技术,提高汽车的自主驾驶能力,但是很快他们就发现市场上的传感器传输的数据很有限,不够用。杜桑解释说:“我们意识到自己必须开发自有硬件,于是就动手了。”
大多自动驾驶汽车使用激光雷达传感器,激光碰到附近的目标物就会反弹,从而给环境绘制精准的3D图像。市场上最好的商用激光雷达传感器是Velodyne制造的,它是机械传感器,最多拥有128条堆叠激光,可以覆盖汽车周身360度的空间。
虽然传感器很好,但是机械设备也有一些问题。第一个问题,太贵。第二个问题,灵活性不够,因为激光要按预定角度发射。汽车观看天空时捕捉的细节和观看高山时是一样的,如果汽车在城市中低速行驶,传感器可能看得太远,它没有办法调整。
最好的替代技术是“固态激光雷达”,用电子设备快速调节激光束,来回调整,让效果达到机械设备的水平。许多企业都在开发固态激光雷达技术,因为它们可以降低组件成本。最终传感器的价格可以降到100美元,但是只能扫描规则、不变的矩形网格,输出的数据不标准,汽车高速行驶时用不上。
AEye使用固态设备的方法不太一样,它对设备编程,让激光瞄准重点区域而不是规则的网格。到底新技术控制激光束时有多精准?AEye并没有明确解释,不过公司曾说可以观察最远300米的距离,角分辨率达到0.1度。它和市场主导型机械设备一样好。
用户可以根据意愿对设备编程。杜桑说:“你可以在任何点位及时调节分辨率、现场回访速率、角度。同一个传感器能够适应。”在高速公路行驶时,汽车会盯住前方车道,就像人眼一样,收集的图像边缘数据点比较少。如果在城市街道上行驶,就会平均覆盖整个视野,设备会随机转移点位,降低忽视障碍物的概率。
设备还会用一些巧妙的方法使用摄像头数据。首先,它会在原始激光雷达图像之上增加色彩。AEye选择的方法和大多自动驾驶汽车的处理方法不太一样,其它汽车处理时会将数据发达到中央计算机,里面包含其它传感器的数据。有时颜色很重要,比如刹车灯的颜色,如果能够快速处理,就能快速识别对象。
总之,AEye技术的创新之处在于:我们可以用摄像头引导激光雷达瞄准有必要瞄准的地方。杜桑说,高速图像识别算法在芯片内运行,激光雷达可以调节凝视点,重点关注汽车、行人,或者是AI认为应该重点关注的对象。
牛津大学信息工程助理教授、自动驾驶创业公司Oxbotica的创始人英格玛·波斯纳(Ingmar Posner)表示,这种适应性图像可以高度解释现实世界。波斯纳认为无人驾驶汽车公司可能不会单独使用此类图像,它们可能会用常规传感器补充其它设备,比如AEye的设备,这样更安全。
可惜AEye设备的视角只有70度,如果想观察360度环境,需要安装5个或者6个传感器,这样一来成本就会上升。杜桑不愿意透露具体成本是多少,他只是说这种方案肯定不便宜,无法与几百美元的固态设备竞争,但是可以与Velodyne高分辨率设备抗衡。杜桑表示,在汽车周身安装一整套传感器,对比同类设备,AEye系统肯定是相对比较便宜的。
有一些企业已经被AEye说服。公司透露说,它们正在与一家大型汽车OEM制造商合作,在机器人的士身上测试传感器。