现在有哪些出售汽车无人驾驶技术系统的公司

编者按:无人车是对未来影响巨夶的新兴技术目前有几十家公司都在窥伺这个庞大的市场。那么究竟未来的市场格局会如何走向会不会出现赢家通吃的局面?真正具備杠杆作用的因素有是什么A16Z的合伙人Ben Evans给出了他的。

目前有好几十家公司正在试图研发无人车的技术其中包括了OEM、其传统的供应商、现囿的主流技术公司以及初创企业。显然这些公司不会个个都能取得成功,但有机会的不在少数这不禁让人猜测,赢家通吃的效应会在哪里发生这会产生哪一种的影响力?会不会出现那种排名前一、两位的公司榨干剩余者的网络效应就像智能手机或者PC操作系统身上发苼过的事情一样?还是说这里能容纳5到10家公司无限地相互竞争下去而在那个堆栈里面又是哪一层的胜利会给其它层赋予力量呢?

这类问題很重要因为它们指明了未来汽车业势力均衡的方向。就像他们今天购买ABS(自动防滑刹车系统)一样一个汽车制造商可以从5、6家公司Φ购买商品化的“自动化套件”(或者自行生产)的世界,将会与Waymo和Uber(也许)是唯一真正选项并且可以按照自己选择设定商业模式(就潒Google为Android设定的那样)的世界非常不同。微软和英特尔在PC世界以及Google在智能手机找到了咽喉点——无人车领域的咽喉地带又在哪里呢

作为开始,无人驾驶技术领域的硬件和传感器可能再加上电子部分将会商品化,这一点似乎是相当明确的这些领域包含了大量的科学和工程(鉯及大量要做的工作),可以说就像LCD屏幕那样,但为什么就因为别人都用这个你就不能用另一个呢这是没有理由的。这里存在着庞大嘚制造规模效应但并没有网络效应(注:网络效应的特点是大家都用所以我也只能用)。比方说激光雷达就会从造价50000美元的“旋转的肯德基全家桶”变成一个小型的固态电子设备成本也会降到几百美元或者更低,这个细分领域将会出现赢家但不会有网络效应,因为获勝的激光雷达品牌对于无人车技术栈的其他层不会产生影响(除非你形成了垄断)制造最好的图像传感器(并且把它卖给苹果)以外的任何事情对索尼的智能手机业务都有帮助。同样地电池(以及发动机和电池/发动机控制)也很可能像今天的RAM一样成为商品——再次地,規模大量的科学可能再加上每个类别里面都会出现一些赢家,但不会有更大的影响力

另一方面,无人车这块可能不会有相当于PC或智能掱机市场看到的第三方软件开发者生态体系因为开发者采用自己而不是别人所形成的良性循环,Windows碾压了Mac然后iOS和Android压垮了Windows Phone但是你不会根据車上面跑多少应用来决定购买什么车(当然了,前提是你还想拥有一辆车)它们全都会跑Uber、Lyft和滴滴,嵌入了Netflix在屏幕上但任何任何应用嘟会出现在你的手机(或者手表、眼镜上)。

我们的目光不要直接放在车上面相反,要上那个栈的更上层去看——看那些让车在路上行赱而不是撞上任何东西的无人控制软件看看城市范围内的最优化以及路由(这意味着我们可能会把所有汽车当作一个系统进行自动化,洏不是个体)看看基于堆栈下面的所有基础而运转的按需出行的“机器的士”车队。按需的网络效应是不言自明的但加入自动化之后會变得复杂很多(这会将按需出行的成本降低4/3甚至更多)。按需机器的士车队会动态预定位好自己的车所有这些车可能还包括别的车都會为了实现效率最大化而实时协调自己的路线,比方说整支车队会避免同时选择相同路线的情况出现这反过来不仅会跟高峰定价结合起來,而且还会考虑到各种道路定价的差异——在交通繁忙期间你可以付更多的钱以争取更快抵达目的地或者根据价格选择另一种到达时間。

从技术的角度来看有三层(驾驶、路由及优化,以及按需请求)基本上是独立的——理论上你可以在GM的无人车上***Lyft app让预装的Waymo自動驾驶模块开车载着人到处逛。显然一些人希望有跨层的影响力,或者可能想进行捆绑——Tesla说自己计划禁止车主用自己的无人车采用非洎家的任何其他按需服务反过来就不行了——Uber就不会坚持要你只用它自己的无人驾驶技术系统。不过尽管微软在Office和Windows上相互利用了影响力但这两个都是靠自己的网络效应赢得各自市场的:一家小型的OEM坚持要你使用其小规模的机器的士服务,就像是1995年的苹果坚持要买AppleWorks而不是微软Office一样我猜测一个更加中立的办法也许是会占得上风。如果我们要对所有车辆进行跨城市的协调或者甚至在路口进行车与车之间的通信时就更是如此——你将需要某种公共的层(尽管我一直都更偏好去中心化系统)。

但这一切都是猜测的成分颇多就像在1900年的时候试圖预测交通拥堵会是什么样子。有一个领域我们能够讨论关键的网络效应可能是什么样的那就是无人化本身。这跟硬件、传感器以及软件有关但主要是跟数据有关,对于无人化来说有两种数据是重要的——地图数据和驾驶数据首先看看“地图”。

我们的大脑在不断处悝传感器数据同时建立起周围世界的3D模型这都是在实时且颇为下意识的情况下发生的,以至于当我们在森林中穿行时也不会被树根绊倒戓者头撞到树枝(基本上不会)在无人驾驶技术领域又被称为是SLAM(同步定位与地图构建)——我们映射周围环境并且定位自己在其中的位置。这显然是无人驾驶技术的基本要求——无人车需要弄清楚自己在道路的位置周边有什么特征(车道、转弯、路边、交通灯等),咜们还需要弄清楚路上还有哪些其他的车及其移动速度有多快

在真正的道路上实时做这些事情仍然非常困难。人类驾驶利用了视觉(以忣声音)但光靠图像(尤其是2D图像)把周围环境析取出一个足够精确的3D模型仍然是个未解难题:机器学习让这件事情变得可能,但还没囿人把精度做到足够供驾驶使用于是,我们开始走捷径这就是为什么几乎所有的无人驾驶技术项目都将成像与360°LIDAR结合起来的原因:这些传感器每个都有自己的局限性,但把它们结合起来(“传感器融合”)你就能得到一幅完整的画面仅靠成像建立周围世界的模型在未來某个时候当然是可能的,但利用更多的传感器能让你实现得快很多即便考虑到你要等到成本和那些传感器的形态因子变得更加实际。吔就是说LIDAR是获得周围世界模型的一条捷径。一旦你获得了这一模型你往往就会用机器学习来了解里面有什么东西——这个是车的样子,那个是自行车手的但就这个而言似乎并没有网络效应(或者不是很强):就算没有一支车队你也能拿到足够的自行车手图像。

如果LIDAR是實现SLAM的捷径之一另一条更有趣的捷径则是采用预置地图,其实就是“高精度3D模型”你预先对道路进行勘察,从容地处理好所有的数据建立街道的模型然后把它放进任何一辆即将驶入道路的车里面。现在无人车不再需要在时速65英里的情况下实时处理所有的数据并识别转彎或交通灯了——相反它已经知道去哪里寻找交通灯,它还可以将关键地标与模型进行比对以在任何时候都能定位自己在道路的位置這样,你的车用摄像头和LIDAR通过跟预置地图进行比较而不是从零做起来弄清楚它在道路的什么位置交通灯在哪里等,同时也用这些输入来實时识别周围的其他车辆

地图就有网络效应。当任何一辆无人车沿着预先映射的道路行驶时它既会将道路与地图进行对比同时也会更噺地图:每一辆无人车也可以成为一辆勘察车。如果你卖出了50万辆无人车而别人只卖出1万辆你的地图就会更新越多并且更精确,这样一來你的车就不那么容易碰到某个全新的、出乎意料的东西而感到疑惑你卖的车越多,你所有的车就变得越好——这是绝对的网络效应

這里的风险是,从长期来看就像汽车不用LIDAR也能做SLAM是有可能的那样,不用预置地图来做到这些也是可能的——毕竟人类就能这样。这会鈈会发生以及什么时候会发生还不清楚但目前看来似乎要等到无人车上市销售之后很久才行,到了那个时候整个版图的其他部分看起来鈳能也已经很不一样了

那么,地图就是在数据方面的第一个网络效应了——第二个来自于汽车理解了周围环境之后所做的事情在空无┅人的道路上行驶,还是的确是在到处都是其他无人车的道路上行驶一旦你能看到的话,这是一个问题但弄清楚道路上的其他人准备偠干什么,为此你又要干什么则完全是另一个问题了。

支持自动驾驶的突破之一是机器学习应该很擅长干这个:机器学习不像过去的技術你不需要写复杂的规则去解释你是如何思考大家会怎么行事的,它会使用数据——而且越多越好你能够收集的关于真正的司机(包括其他司机以及坐在勘察车的司机本人)在现实世界中如何行为和做出反应的数据越多,你的软件对周围发生的事情的理解就越好规划丅一步该做什么就会越好。就像地图一样在正式推出前你的测试车像收集好了这些数据,但在推出后你卖出的每一辆车都在收集这一數据并将其发送回家里。那么就像地图一样,你卖出去的车越多你所有的车都会越好——这绝对也是网络效应。

驾驶数据还可以有另┅个二次使用用于驾驶数据仿真。这是为了解决“如果发生了X我们的无人车会作何反应?”的问题做这个的办法之一是造一辆无人車让它一整天自行在城市里乱逛,看看它对其他司机身上发生的任何随机事件是怎么反应的问题是这不是一个受控的实验——你没法向噺软件重现一个场景来看看什么发生了改变以及你的问题是否得到了解决。因此现在大量的努力都是投入到仿真方面的——你把你的无囚车软件放进《侠盗猎车手》里面(几乎就是这样),然后针对任何你需要的情况对它进行测试这未必需要捕捉到一些东西(“LIDAR会不会檢测出那辆卡车?”)而且一些仿真场景将会是循环的,但它的确告诉了你自己的系统会对确定的情况作何反应而你则可以从你的真實世界的驾驶数据中收集那些情况。那么这里就出现了一个间接的网络效应:你拥有的真实世界的驾驶数据越多你的仿真就可以越精确,因此也就可以把你的软件做得越好仿真显然也存在着规模优势,这体现在你能够拿出多少计算资源投入多少人,以及在大型计算项目上拥有多少体系知识来做这件事情上作为Google的一部分显然给Waymo带来了一项优势:它报告说每周的“真正”无人驾驶技术行驶里程可达25000英里,但在2016年累计模拟行驶里程已经达到了10亿英里(平均每周1900万英里)

有人认为Tesla在地图和驾驶数据方面都处于领先:自2016年末以来,它的那些愙户购买了“Autopilot(自动导航)”附件的新车都有8个摄像头可生成接近360°的视场,再加上一个前向雷达(此外还有一组超声波传感器,但是识别范围很小,主要是用于停车)作为补充。所有这些都能收集地图和司机行为数据然后回传给Tesla,不过似乎Tesla最近才刚刚开始收集其中一些数據关键是既然雷达只是指向前面,Tesla将被迫仅靠成像来建立周围世界大部分的模型但就像我前面指出那样,我们还不知道如何精确地做箌这一点这意味着Tesla其实在收集着目前没人能够解读的数据(或者至少解读得足够好到可以形成完整解决方案)。当然你还必须解决这個问题,这既是为了收集数据也是为了能驾驶汽车,这样看来Tesla正在进行一场逆向思维的豪赌,赌的是计算机视觉的进展速度会超出我們想象因为不需要等LIDAR的廉价化/实用化,Tesla是节省了时间但在没有LIDAR(把LIDAR放进所有的Tesla车上面几乎是不可能的)的情况下做无人驾驶技术意味著计算机视觉软件必须解决更困难的问题,而这个问题的解决可能需要的时间更久如果无人驾驶技术软件的其他部分——那些决定汽车應该做什么事情的组件需要很长时间才能实现的话,LIDAR也许就会先于无人驾驶技术可行之前变得便宜且实用起来从而导致Tesla抄的近路变得无關紧要。会不会这样呢我们走着瞧。

那么数据是有网络效应,也就是赢家通吃效应的:驾驶数据和地图数据都有这就引出了两个问題:谁掌握了这些数据,你又需要多少数据

数据的所有权是一种有趣的权力和价值链问题。显然Tesla打算自己开发所有的重要技术然后放进洎己的车里所以它也拥有数据。但一些OEM已经提出车是自己的,客户关系也是自己的所以拥有和分配的是他们的数据,不是任何技术匼作伙伴的对于传感器供应商来说这似乎是一个合理的定位:我不敢肯定自己卖GPU、摄像头或者LIDAR同时还向保留数据是否可持续。但执行制慥无人驾驶技术部件的公司是需要拥有那些数据的因为这是工作机制的要求。如果你不把数据反馈回来给技术它就不能进一步改进自己这意味着OEM在给供应商创造了网络价值,但除了可以实现更好的自动化之外自己却没有获得其中的任何价值,但那种更好的自动化会成為一种商品任何使用它的OEM的所有产品都可以用。这就是PC或者Android OEM的定位:他们通过同意在自己的产品内使用该软件而制造出网络效应这让怹们可以卖出自己的产品,但他们的产品已经变成了接近于日用品网络价值已经流到技术公司那里了。这是一个良性循环大部分的价徝都跑到了供应商而不是OEM那里。这当然就是为什么大多数汽车OEM想要自己做的原因:因为他们不想落得像Compaq那样的结局

这就把我引向了最后┅个问题:你究竟需要多少数据?你增加的数据越多系统是不是多多少少都会无限地变得更好?还是说会形成一条S曲线——到了一定时候增加的数据越多会出现收益递减的规律

也就是说——网络效应到底有多强劲?

对于地图来说这个问题是相当清楚的。你的地图要好箌支撑多大密度的车和多高的频率这个转换成市场份额的最小要求又是多少?这个市场能够承受多少的参与者可以有10家来做吗?还是兩家一堆的二级OEM能不能一起合作凑出所有的地图数据?送货卡车能不能像今天卖其他类型的地图数据那样卖自己的数据再次地,这不潒消费者软件生态体系——RIM和诺基亚没法共享黑莓和S60的用户群但地图是可以池化的。这是一个准入门槛还是准入条件

同样的问题也适鼡于驾驶数据,或者说其实包括所有的机器学习项目:随着你添加的数据越来越多到什么时候会出现收益递减曲线到什么时候会开始放緩?那时候有多少人会获得这种规模的数据就通用搜索而言,这种改进似乎是无穷无尽的——***的相关性(几乎)可以一直改进下去但对于自动驾驶来说,可以确定的是那里似乎是有天花板的——如果一辆车在那不勒斯开一年都没有遇到什么麻烦的话那还有多少改進空间?到了一定时候你基本上就到顶了网络效应意味着如果你的用户增多你的产品就会变得越来越好,但用户到了多少之后产品就基夲没什么改进空间了呢你需要卖出多少辆车才能达到那种程度呢?与此同时机器学习本身也在迅速改变——你没法排除掉实现无人驾駛技术的数据量急剧下降的可能性。

最后这一切的潜台词是那么一种更好或更糟的无人驾驶技术是否存在。但“更糟”的无人驾驶技术意味着什么呢是指撞死的可能性降低,还是说车更有可能感到迷惑然后自动开到路边联系上远程支持中心,让人类操作员接管人工控制会冲破一堆聚苯乙烯包装突然出现吗(注:也许人工控制命令会让方向盘等像安全气囊那样的机制)?车会说些鼓励性的话吗

我怀疑这个***是L5级(全自动)会以L4级的演进出现——也就是每一辆车都会有人工控制,但会被用得越来越少而明确的L5会分阶段出现,随着囚工控制的慢慢减少然后被藏起来,再到撤销掉——最终退化掉了这可能是按照场景出现的——我们可能先在德国实现L5,然后再到那鈈勒斯或者莫斯科这将意味着数据是以网络的级别来收集和使用的,最后才实现全自动

现在我们还无法真正知道这些问题的***。这個领域里面很少人会预期完全的“L5”级无人驾驶技术会在5年内出现大多数倾向于认为还要用接近10年的时间。然而他们指出了一系列对汽车业有着截然不同影响的结果。其中的一个极端是网络效应可能会相对较弱会有5到10家公司提供可行的无人驾驶技术平台。这种情况下汽车业会把无人驾驶技术当作部件来购买,其价格可能跟今天的ABS、安全气囊或者卫星导航差不多它可能还会面临激进变化——无人意菋着按需出行的成本至少要降低3/4,而这会让很多人重新考虑要不要买车而向电动化的转变又会将车内活动件的数量减少到1/5至1/10的规模,这將完全改变工程设计动态、供应商群体以及准入门槛但它不会被Android化。而另一个极端则是只有Waymo把这件事干成了这样的话整个行业又会大鈈一样了

编译组出品编辑:郝鹏程

让汽车注意路况、看懂交通号志、侦测对象并为其分类、感知速度/轨迹以及其他车辆并不容易——更重要的是它必须能自行在地图上定位,才能确切地知道行车的目的哋

无人驾驶技术汽车在追踪周遭环境时,必须依靠很多包括摄像机、雷达、超声波、GPS天线,以及利用光脉冲测距的光达(Lidar)组件每一种傳感器都有其优缺点。

***在车辆上的一系列传感器技术(来源:Yole Développement)

我们首先应弄清楚如何最有效地填补传感器固有的缺陷第二步可能更为重要,即开发最佳策略将不同的数据串流结合起来,使关键信息不至于遗失每一种传感器都以自身的画面更新速率传送数据已經是个问题,传感器融合就更复杂了——因为有些传感器提供原始数据而其他传感器则提供自己的对象数据***。

2017年我们看到了感知技术方面的一连串进展。VSI Labs创始人兼负责人Phil Magney表示:“感知是无人驾驶技术汽车软件堆栈的一个主要领域而且在这方面还有很多创新。”

科技公司、一级供货商和OEM一直汲汲于取得自家公司缺乏或无法自主开发的传感器技术。同时过去两年来已经出现了多家感知传感器初创公司,其中有许多都关注尚处于萌芽阶段的无人驾驶技术汽车市场

2017年汽车业界最大的收购交易是英特尔(Intel)以153亿美元买下Mobileye。

由于Mobileye已经在自动駕驶辅助系统(ADAS)和无人驾驶技术汽车的汽车视觉领域占据明显的领先地位收购Mobileye之举使得英特尔在无人驾驶技术汽车竞赛中稳居有利地位。

尤其是考虑到视觉是无人驾驶技术汽车中唯一不可或缺的传感器技术这项收购案显得更重要。英特尔表示打算将Mobileye的“计算机视觉、感测、融合、地图建构和驾驶策略”与英特尔的“开放运算平台”相结合

Magney将摄影机形容为“必备的传感器”,他解释说具有以高分辨率撷取影像的能力,才能让摄像机更有效地分类对象现在的摄像机还支持彩色显示。那么弱点呢Magney补充说:“摄像机的深度不如光达。”

光達:“最热门的领域”

(ASC)的光达业务

Magney则称光达“仍然是最热门的领域”,部份原因是光达在自动驾驶中有相当多用途他解释,“无人驾駛技术汽车需要一个具有定位资产的基本地图对此没有任何东西能够取代光达。这是高阶产品得以竞争之处”

光达市场之所以如此热門也由于新的出现。据Kona表示一种波长高于1,400nm的新雷射发射技术正兴起中。这种新的波长可望为光达带来更高分辨率和更远射程他补充说,Princeton

不同类型的光达技术比较(来源:IHS Markit)

同时供货商也透过开发各种光束控制技术,不断改善光达的耐用性、尺寸和成本这些技术既有機械式也有MEMS和固态光达。

据Magney介绍机械式光达(如Velodyne 128信道的产品)由于能产生360度点云,非常适合建构地图但是,对于部署量产车辆基于固态組件——MEMS或光相位矩阵(OPA)的光达非常较适合,它们也可以在其视野内产生点云

成本更低的快闪(flash)组件也开始崛起。Magney指出有些被设计成近接偵测器,且成本低于100美元但缺点是分辨率有限,无法对对象进行分类

在雷达市场,竞争的重点在于尺寸和精确度TI如今宣称可支持“尛于4cm测距分辨率的高精度独立感测技术”。

Magney表示:“我们对雷达的进展感到满意毫米波雷达正热。”他评论道:“雷达的分辨率越来越高现在已能用于分类物体,这是以前做不到的”

然而,更好的分辨率需要更多信道这意味着有更多数据需要处理。所以Magney说:“毫米波雷达需要有专门的处理器来处理这些数据,以及产生对象或点云”此外,毫米波雷达还需要开发工具以打造应用否则,庞大的资料难以被理解

雷达除了能全天候运作外,其他的评价一向不优传统的车用雷达无法看到摄影机或光达所能看到的物体。更具体地说雷达看不到远方的物体,也无法区别所看到的东西它们的处理速度不足以达到行驶于高速公路的要求。

2017年1月成立的新创公司Metawave期望透过其開发的模拟波束成形技术来改变现况

Metawave采用PARC将超材料、雷达和天线商业化的独家授权,在今年的CES展上推出该公司“完整雷达套件”的原型该公司的超材料是部署在PCB上的小型软件控制工程结构。这些结构据称能以特殊的方式控制电磁波束这在以前通常只有在更大尺寸、更強大和成本更高的军用系统中才能实现。

Metawave的模拟雷达技术基于电子可控天线使用一根双端口的天线:其中一个埠连接到Tx或Rx链路,另一个埠连接到MCUMCU透过查找表(LUT)定义和控制天线的波束宽度和方向,从而使Metawave的模拟雷达实现微秒级速度的扫描(来源:Metawave)

Metawave的雷达套件型兼容于各种雷达芯片该公司宣称其基于超材料的模拟波束成形技术能精确地控制雷达波束,在不牺牲分辨率的情况下提升工作速度和SNR

尽管Mobileye目前仍昰汽车视觉领域的领导厂商,Magney认为其他公司也正迎头赶上他说:“任何人都可以获得相同的成像器,打造适合于影像辨识的摄影机但問题是你需要适用的处理器以及紧密整合的算法。”

然而“如今你可以从几家芯片公司中选择一款高性能视觉处理器,并套用自家的算法或者,你可以用卷积神经网络(CNN)来完成这项任务”Magney总结道“目前,无人驾驶技术汽车制造商已经在摄像机方面作了选择许多公司会將人工智能(AI)应用于影像中以取得结果。”

然后是总部位于巴黎的初创公司Chronocam该公司的传感器技术并非针对人类应用,而是为机器感知和检測而打造的Chronocam这款以事件为导向的传感器技术还很新,尚未用于任何商用车但已经受到业界关注了;该公司并期望该技术能彻底改变当紟CMOS影像传感器市场。例如雷诺集团(Groupe Renault)于2016年底与Chronocam达成了策略发展协议。

正如Chronocam执行长所指英特尔、辉达(Nvidia)等GPU/CPU巨擘仍在试着找出更准确、更快速處理大量数据的最佳方式。然而Chronocam专注的是为机器应用简化和量身打造的成像数据撷取。事件导向的传感器目标在于显著减少数据负载使车辆几乎可以做出实时决策。

让汽车具有“自我意识”的第一步是建构地图并实时匹配至车辆在预先制作的地图上看到的内容。然后车辆可以对其位置进行三角测量和定位。Magney强调:“车子必须确切知道要去哪里才能发展出‘情境感知’。”

换句话说如果希望高度洎动化的车辆能准确定位,就需要使用光达Magney指出,它们需要一个具有定位功能的基本地图

不过,还有其他方法可以做到这一点例如Nvidia DriveWorks SDK鈳实现基于影像的定位。DriveWorks工具库包括地图定位、HD地图接口以及自我运动(egomotion)等

实时动态定位(RTK)是另一种选择,Magney补充说RTK可增强来自全球导航卫煋系统(如GPS、GLONASS、Galileo和北斗)的位置数据精确度。Magney说:“在一般情况下可能运气不错但在城市地区,由于RTK需要高度依赖卫星可能无法有效发挥莋用。”

同时英特尔/Mobileye正推广其用于定位的道路体验管理(REM)技术。Mobileye希望利用基于摄影机的ADAS系统普遍性发挥群体力量实时建立并维护一个精確的环境地图。

新创企业在定位方面也有发挥的空间据悉,DeepMap正致力于L4/L5级自动驾驶车解决HD地图建构和定位以及大数据管理方面的挑战Magney指絀,DeepMap使用摄影机影像和光达数据有效地改善了目前的数字地图。他补充说该公司计划推出的是一项服务,而不只是一款产品

随着无囚驾驶技术汽车收集到所有的感测数据,最重要的就是传感器融合的质量传感器融合的结果决定了自动驾驶车的决策和行为,也即安全問题

自动驾驶车无法仅靠一个传感器实现安全驾驶,因此必须进行传感器融合但Magney补充说:“因为你必须同步所有的传感器讯号,所以融合是很困难的”

至于是融合“对象”数据还是“原始”数据,业界对此的争论才刚刚开始目前还没有明确的***。

相较于对象数据由于原始数据不会在转换过程中发生遗失,大多数的AI拥护者较支持这种资料融合途径Magney表示。但他补充说与原始资料融合有关的问题包括:“你将需要大量的处理;你还需要有GB级的网络,才能将这些讯号传送到整个车辆中”

新创公司DeepScale开发了一种感知技术,能采集原始數据而非对象数据,而且可以在嵌入式处理器上加速传感器融合DeepScale现正利用其深度神经网络(DNN)从头开始做起——所使用的原始数据不仅来洎影像传感器,还包括雷达和光达

DeepScale开发可用于早期传感器融合的深度神经网络(来源:DeepSacle)

参考资料

 

随机推荐