Loading… 路测能有多可靠?打开自动驾驶商业化的“黑盒子”_TOM汽车
正文
Qzone
微博
微信
路测能有多可靠?打开自动驾驶商业化的“黑盒子”
亿欧网    2018-09-15 18:43

 

路测能有多可靠?打开自动驾驶商业化的“黑盒子”

拿到一张自动驾驶路测牌照似乎早已不是什么新鲜事。

与初期为路试资格欣喜若狂相比,近年来主机厂及科技公司对于无人车路测工作习以为常。随着公开测试的大规模展开,各家车队的驾驶能力几乎齐头并进。单凭驾驶能力远不足以评判技术效果,其仍旧没有完全杜绝类似“Uber无人车致死”等事故的发生。

为了最大程度上确保系统安全可靠,从业者开始强调无人驾驶技术兼顾驾驶能力与鲁棒性。所谓“鲁棒性”,可以简单理解成无人驾驶系统的容错能力,以保证系统能够在操作错误、超出常规频率的发出指令、网络过载等极端情况中,仍旧正常运作,从而避免安全问题发生。因此,技术鲁棒性逐渐成为了这项未来技术后期能否实现大规模商业落地的重要指标。

顺着自动驾驶产业链来看,感知、决策、执行层面均各自遭遇了“黑盒子”的困境。感知:地图原始数据与衍生信息受限

感知定位层面无需多言。除了始终备受争议的多种传感器路线之外,近期大热的高精地图同样没能避开上述难题。

图商的商业模式大同小异:以测绘车队收集的道路数据为基础,画出一张厘米级精度的地图,将其使用权出售给主机厂客户。换句话说,车辆基本看不到地图原始数据,更别提拿到其衍生信息。另一方面,长期占据产业链主导位置的老牌车厂在拿到数据之后,现阶段恐怕不太可能对地图厂商开放接口,以完成众包进而实现实时更新。

在这种情况下,训练系统、反复测试及模拟工作势必会受到影响。如何在核心数据量受限时突围,成了自动驾驶感知层打开“黑盒子”的关键。决策:数据运算逻辑不可解释

在自动驾驶与人工智能紧密绑定的当下,深度学习成了行业中热度最高的语汇,而其主要应用在决策层,也就是人们口中的“自动驾驶大脑”。

然而理论上,基于训练数据集归纳的深度学习算法并不像人类一样,对所有开放环境均具备强认知功能。技术不能处理完全陌生的场景,最终会陷入数据运算逻辑不可解释的“黑盒子”中,无法预估算法输出结果。

或许这恰好可以解释,为何创业者们谈及无人驾驶时间节点时,往往信心十足又慎之又慎。毕竟在算法“黑盒子”未被拆解之前,谁也不敢拿运气与性命对赌。执行:底层控制协议被国际Tier 1垄断

当然,自动驾驶绝不是拍脑袋决策。脱离“四肢”谈“大脑”的都是高位截瘫,执行控制层才是自动驾驶技术真正落地的基础。

有意思的是,当真正涉及到车辆系统控制时,终于出现了一个具象的“黑盒子”:据悉,目前来自Tier 1供应商的执行控制产品都会做成一个黑盒子,也就是全套自成体系的底盘控制系统。底层的执行控制协议是付费公开的,即便公开,车厂对于接口开放程度也直接影响着汽车操控的可调程度。

对于如今直接面向主机厂的ADAS厂商而言,这也是双方沟通过程中最大的难点。或许,只有国内企业真正打开跨国Tier 1巨头手中的“黑盒子”,才能抢夺到部分话语权,将自主品牌从长期被动的处境中拉出来。

显而易见,自动驾驶的高风险来自上述多重维度。基于此,2018年9月28日,亿欧汽车主办的“打开自动驾驶‘黑盒子’——2018亿欧汽车自动驾驶商业落地沙龙”将在北京东方广场NIO HOUSE举办,期待能与供应链、科技公司和产业资本一道,打开自动驾驶“黑盒子”。

 

责任编辑: 3980SYN

责任编辑: 3980SYN
广告
广告