汽车导航 汽车导航
Ctrl+D收藏汽车导航
首页 > 汽车资讯 > 正文

无人驾驶汽车是一场「科学试验」

作者:

时间:1900/1/1 0:00:00

持怀疑态度的人说,完全自动驾驶可能比预期的更遥不可及,但该行业不愿承认这一点。如果你真的相信首席执行官们的说法,全自动驾驶汽车可能会在几个月后问世。2015年,埃隆·马斯克预测,到2018年实现全自动驾驶的特斯拉将问世;谷歌也是如此。Delphi和MobileEye的L4系统目前计划于2019年推出。同年,Nutonomy计划在新加坡街头部署数千辆无人驾驶出租车。通用汽车将于2019年大规模生产全自动驾驶汽车,无需方向盘,驾驶员也无需干预。这些预测得到了真金白银的支持,软件可以实现其使命,其功能正如广告中所说的那样强大。

Tesla, Discovery, Model X,Model S, Hyundai

乍一看,全自动驾驶似乎比以往任何时候都更触手可及。Waymo一直在亚利桑那州一些有限但开放的道路上测试汽车。特斯拉和许多其他模仿者已经在销售功能有限的自动驾驶系统,该系统在发生任何事故时都依赖于驾驶员的干预。已经发生了几起事故(其中一些是致命的);然而,业内普遍认为,只要制度继续完善,我们就不会离完全不需要干预太远。但全自动驾驶汽车的梦想可能比我们想象的更遥不可及。人工智能专家越来越担心,自动驾驶系统至少需要几年甚至几十年的时间才能可靠地避免事故。由于自我训练系统很难应对现实世界中的混乱,像纽约大学的加里·马库斯这样的专家准备对他们的期望进行痛苦的调整,这有时被称为“人工智能的冬天”。这种延迟可能会给依赖自动驾驶技术的公司带来灾难性后果,使整整一代人无法体验完全的自动驾驶。不难理解为什么汽车公司对自动驾驶持乐观态度。在过去的十年里,深度学习给人工智能带来了几乎难以想象的进步 和技术产业;

深度学习使用分层机器学习算法从海量数据集中提取结构化信息。深度学习支持谷歌搜索、脸书新闻源、对话语音到文本的转换算法和可以下围棋的系统。在互联网之外,我们使用深度学习来检测地震、预测心脏病和标记击中的可疑行为,还有无数其他创新是不可能的。然而,深度学习需要大量的训练数据才能发挥作用,包括算法将遇到的几乎每一个场景。例如,谷歌图像等系统擅长识别动物,只要它们有训练数据来显示每只动物的样子。Marcus将这项任务称为“插值”,并调查了所有标记为“豹猫”的图像,以确定新图像是否属于豹猫的类别。工程师们可能会找到另一种方法来确定数据的来源以及如何组织数据,但这对算法的覆盖范围施加了严格的限制。同样的算法无法识别豹猫,除非它看过数千张豹猫的照片,即使它看过家猫和美洲豹的照片,并且知道豹猫介于这两种动物之间。这个过程被称为“概括”,需要一套不同的技能。长期以来,研究人员认为他们可以通过适当的算法来提高泛化能力,但最近的研究表明,传统的深度学习比我们想象的要糟糕。一项研究发现,当面对不同的视频帧时,传统的深度学习系统甚至很难泛化。只要视频背景稍微改变,同一只北极熊就会被贴上狒狒、猫鼬或黄鼠狼的标签。由于每一种分类都是基于数百个因素,即使照片上的微小变化也可能完全改变系统的判断,而其他研究人员在对抗数据集中利用了这一点。Marcus提到,对聊天机器人的狂热是炒作泛化问题的最新例子。他说:“2015年,一些制造商向我们承诺推出聊天机器人,但他们没有做任何好事,因为这不仅仅是收集数据的问题。”当你在网上与某人交谈时,你不只是想让他们重复之前的对话。你希望对方对你说的话做出回应,并使用更广泛的对话技巧来做出专门针对你的回应。深度学习根本无法制造出这样的聊天机器人。一旦最初的炒作消退,许多公司对聊天机器人项目失去了信心,现在只有少数公司仍在积极开发。这让特斯拉和其他自动驾驶公司面临着一个可怕的问题:自动驾驶汽车会像图像搜索、语音识别和其他人工智能成功故事一样变得越来越好吗?或者你会遇到像聊天机器人这样的泛化问题吗?自动驾驶是一个插值问题还是一个泛化问题?驾驶有多不可预测?现在知道结果还为时过早。马库斯说:“无人驾驶汽车就像科学实验,我们不知道答案。”我们以前从未达到过这种水平的自动驾驶,所以我们不知道这是一项什么样的任务。如果我们只识别熟悉的物体并遵守规则,那么现有的技术应该能够胜任这项任务。然而,Marcus担心,在事故多发的场景中安全驾驶可能比预期的更复杂,但该行业只是不想承认这一点。“只要出现令人惊讶的新情况,这对深度学习来说就不是一件好事。”我们的实验数据来自公开的事故报告,每一份报告都提出了一个不同寻常的问题。在2016年的一场致命车祸中,一辆特斯拉Model S全速撞上了一辆白色拖车的尾部,因为高高的拖车底盘和耀眼的阳光反射让汽车感到困惑。今年3月,优步的一辆自动驾驶汽车撞死了一名推自行车的女子,当时她正在穿过一条未经授权的人行横道。根据国家运输安全委员会的报告,优步的软件错误地将这名女子识别为未知物体,然后是汽车,最后是自行车,并每次更新预测。在加利福尼亚州的一次车祸中,一辆Model X在撞击前加速冲向障碍物,原因尚不清楚。每一次事故似乎都是一种极端情况,这种情况不能要求工程师提前预测。但几乎每一场车祸都涉及到一些意想不到的场景;

如果没有泛化能力,自动驾驶汽车将不得不面对每一个场景,就好像这是第一次一样。结果是一系列幸运的事故:随着时间的推移,这些事故并没有变得不那么常见或危险。对于怀疑论者来说,手动脱离报告表明,这种情况已经陷入停滞。吴恩达(Andrew Ng)是前百度高管,Drive.AI董事会成员,也是业界最著名的推广人之一。他认为,问题不在于建立一个完美的驾驶系统,而在于训练旁观者预测自动驾驶行为。换句话说,我们可以确保汽车的道路安全,而不是反过来。作为一种不可预测的情况,我问他是否认为现代系统可以应付踩着弹簧高跷的行人,即使他以前从未见过他们。吴恩达(Andrew Ng)告诉我:“我认为许多人工智能团队可以处理行人在人行横道上踩高跷的情况。话虽如此,在高速公路中间踩弹簧高跷确实很危险。“吴恩达说:”我们应该与政府合作,要求人们遵守法律,考虑他人,而不是设计人工智能来解决弹簧高跷的问题。安全不仅与人工智能技术的质量有关。“深度学习并不是唯一的人工智能技术,许多公司已经在探索替代方案。尽管技术在行业中受到严格保护(看看Waymo最近对优步的诉讼就知道了),许多公司已经转向基于规则的人工智能,这是一种古老的技术,允许工程师将特定的行为或逻辑硬编码到其他自主系统中。它没有同样的能力仅仅通过研究数据来编程自己的行为,这就是为什么深度学习如此令人兴奋,但它可以让公司避免深度学习的一些局限性。然而,由于感知的基本任务仍然深受深度学习技术的影响,很难说工程师在隔离潜在错误方面会有多成功。Lyft董事会成员、风险投资家Ann San Pu-ko表示,她认为问题的一部分在于对自动驾驶汽车本身寄予厚望,而除了完全自动驾驶之外的任何系统都被归类为失败。San Pu Kang表示:“期望自动驾驶汽车从零进入L5是一种期望错配,而不是技术上的失败。我认为所有这些微小的改进都是在全自动驾驶道路上取得的非凡成就。”然而,目前尚不清楚自动驾驶汽车将在这种困境中持续多久。特斯拉的自动驾驶系统等半自动产品具有足够的高度智能,可以应对大多数情况,但如果出现任何不可预测的情况,仍然需要人工干预。当真的出了问题时,很难知道是该怪汽车还是该怪司机。对于一些评论家来说,这种人机混合动力可能不如人类驾驶员安全,即使很难完全归咎于机器。兰德公司的一项研究估计,自动驾驶汽车必须行驶2.75亿英里而不发生致命事故,才能证明它们和人类司机一样安全。第一例与特斯拉自动驾驶系统有关的死亡发生在距离约1.3亿英里的地方,远低于这一标准。然而,由于深度学习是汽车识别物体并决定处理物体的关键,因此降低事故率可能比看起来更困难。杜克大学教授Mary Cummings在谈到今年早些时候导致一名行人死亡的优步事故时说:“这不是一个容易孤立的问题。感知决策周期往往是相互关联的,就像导致行人死亡的事故一样。由于感知的模糊性,我决定不采取任何行动;

由于传感器发出的假警报太多,紧急制动系统被关闭。“这起车祸以优步暂停其夏季自动驾驶测试而告终,这对其他计划推广该测试的公司来说是一个不祥的迹象。在这个行业,许多公司争相获得更多数据来解决问题,认为里程数最多的公司将建立最强大的系统。但尽管许多公司认为这只是数据问题,但马库斯认为这要多得多很难解决。Marcus说:“他们只是使用他们现有的技术,并希望它能发挥作用。他们依赖大数据,因为这是他们手头的利器,但没有证据表明它能让你达到我们需要的精度。”怀疑论者说,全自动驾驶可能比预期的更遥不可及,但该行业不愿承认这一点。如果你真的相信首席执行官们的话,全自动驾驶汽车可能会在几个月后问世。2015年,埃隆·马斯克预测,到2018年实现全自动驾驶的特斯拉将问世;谷歌也是如此。Delphi和MobileEye的L4系统目前计划于2019年推出。同年,Nutonomy计划在新加坡街头部署数千辆无人驾驶出租车。通用汽车将于2019年大规模生产全自动驾驶汽车,无需方向盘,驾驶员也无需干预。这些预测得到了真金白银的支持,软件可以实现其使命,其功能正如广告中所说的那样强大。

Tesla, Discovery, Model X,Model S, Hyundai

乍一看,全自动驾驶似乎比以往任何时候都更触手可及。Waymo一直在亚利桑那州一些有限但开放的道路上测试汽车。特斯拉和许多其他模仿者已经在销售功能有限的自动驾驶系统,该系统在发生任何事故时都依赖于驾驶员的干预。已经发生了几起事故(其中一些是致命的);然而,业内普遍认为,只要制度继续完善,我们就不会离完全不需要干预太远。但全自动驾驶汽车的梦想可能比我们想象的更遥不可及。人工智能专家越来越担心,自动驾驶系统至少需要几年甚至几十年的时间才能可靠地避免事故。由于自我训练系统很难应对现实世界中的混乱,像纽约大学的加里·马库斯这样的专家准备对他们的期望进行痛苦的调整,这有时被称为“人工智能的冬天”。这种延迟可能会给依赖自动驾驶技术的公司带来灾难性后果,使整整一代人无法体验完全的自动驾驶。不难理解为什么汽车公司对自动驾驶持乐观态度。在过去的十年里,深度学习给人工智能带来了几乎难以想象的进步 和技术产业;

深度学习使用分层机器学习算法从海量数据集中提取结构化信息。深度学习支持谷歌搜索、脸书新闻源、对话语音到文本的转换算法和可以下围棋的系统。在互联网之外,我们使用深度学习来检测地震、预测心脏病和标记击中的可疑行为,还有无数其他创新是不可能的。然而,深度学习需要大量的训练数据才能发挥作用,包括算法将遇到的几乎每一个场景。例如,谷歌图像等系统擅长识别动物,只要它们有训练数据来显示每只动物的样子。Marcus将这项任务称为“插值”,并调查了所有标记为“豹猫”的图像,以确定新图像是否属于豹猫的类别。工程师们可能会找到另一种方法来确定数据的来源以及如何组织数据,但这对算法的覆盖范围施加了严格的限制。同样的算法无法识别豹猫,除非它看过数千张豹猫的照片,即使它看过家猫和美洲豹的照片,并且知道豹猫介于这两种动物之间。这个过程被称为“概括”,需要一套不同的技能。长期以来,研究人员认为他们可以通过适当的算法来提高泛化能力,但最近的研究表明,传统的深度学习比我们想象的要糟糕。一项研究发现,当面对不同的视频帧时,传统的深度学习系统甚至很难泛化。只要视频背景稍微改变,同一只北极熊就会被贴上狒狒、猫鼬或黄鼠狼的标签。由于每一种分类都是基于数百个因素,即使照片上的微小变化也可能完全改变系统的判断,而其他研究人员在对抗数据集中利用了这一点。Marcus提到,对聊天机器人的狂热是炒作泛化问题的最新例子。他说:“2015年,一些制造商向我们承诺推出聊天机器人,但他们没有做任何好事,因为这不仅仅是收集数据的问题。”当你在网上与某人交谈时,你不只是想让他们重复之前的对话。你希望对方对你说的话做出回应,并使用更广泛的对话技巧来做出专门针对你的回应。深度学习根本无法制造出这样的聊天机器人。一旦最初的炒作消退,许多公司对聊天机器人项目失去了信心,现在只有少数公司仍在积极开发。这让特斯拉和其他自动驾驶公司面临着一个可怕的问题:自动驾驶汽车会像图像搜索、语音识别和其他人工智能成功故事一样变得越来越好吗?或者你会遇到像聊天机器人这样的泛化问题吗?自动驾驶是一个插值问题还是一个泛化问题?驾驶有多不可预测?现在知道结果还为时过早。马库斯说:“无人驾驶汽车就像科学实验,我们不知道答案。”我们以前从未达到过这种水平的自动驾驶,所以我们不知道这是一项什么样的任务。如果我们只识别熟悉的物体并遵守规则,那么现有的技术应该能够胜任这项任务。然而,Marcus担心,在事故多发的场景中安全驾驶可能比预期的更复杂,但该行业只是不想承认这一点。“只要出现令人惊讶的新情况,这对深度学习来说就不是一件好事。”我们的实验数据来自公开的事故报告,每一份报告都提出了一个不同寻常的问题。在2016年的一场致命车祸中,一辆特斯拉Model S全速撞上了一辆白色拖车的尾部,因为高高的拖车底盘和耀眼的阳光反射让汽车感到困惑。今年3月,优步的一辆自动驾驶汽车撞死了一名推自行车的女子,当时她正在穿过一条未经授权的人行横道。根据国家运输安全委员会的报告,优步的软件错误地将这名女子识别为未知物体,然后是汽车,最后是自行车,并每次更新预测。在加利福尼亚州的一次车祸中,一辆Model X在撞击前加速冲向障碍物,原因尚不清楚。每一次事故似乎都是一种极端情况,这种情况不能要求工程师提前预测。但几乎每一场车祸都涉及到一些意想不到的场景;

如果没有泛化能力,自动驾驶汽车将不得不面对每一个场景,就好像这是第一次一样。结果是一系列幸运的事故:随着时间的推移,这些事故并没有变得不那么常见或危险。对于怀疑论者来说,手动脱离报告表明,这种情况已经陷入停滞。吴恩达(Andrew Ng)是前百度高管,Drive.AI董事会成员,也是业界最著名的推广人之一。他认为,问题不在于建立一个完美的驾驶系统,而在于训练旁观者预测自动驾驶行为。换句话说,我们可以确保汽车的道路安全,而不是反过来。作为一种不可预测的情况,我问他是否认为现代系统可以应付踩着弹簧高跷的行人,即使他以前从未见过他们。吴恩达(Andrew Ng)告诉我:“我认为许多人工智能团队可以处理行人在人行横道上踩高跷的情况。话虽如此,在高速公路中间踩弹簧高跷确实很危险。“吴恩达说:”我们应该与政府合作,要求人们遵守法律,考虑他人,而不是设计人工智能来解决弹簧高跷的问题。安全不仅与人工智能技术的质量有关。“深度学习并不是唯一的人工智能技术,许多公司已经在探索替代方案。尽管技术在行业中受到严格保护(看看Waymo最近对优步的诉讼就知道了),许多公司已经转向基于规则的人工智能,这是一种古老的技术,允许工程师将特定的行为或逻辑硬编码到其他自主系统中。它没有同样的能力仅仅通过研究数据来编程自己的行为,这就是为什么深度学习如此令人兴奋,但它可以让公司避免深度学习的一些局限性。然而,由于感知的基本任务仍然深受深度学习技术的影响,很难说工程师在隔离潜在错误方面会有多成功。Lyft董事会成员、风险投资家Ann San Pu-ko表示,她认为问题的一部分在于对自动驾驶汽车本身寄予厚望,而除了完全自动驾驶之外的任何系统都被归类为失败。San Pu Kang表示:“期望自动驾驶汽车从零进入L5是一种期望错配,而不是技术上的失败。我认为所有这些微小的改进都是在全自动驾驶道路上取得的非凡成就。”然而,目前尚不清楚自动驾驶汽车将在这种困境中持续多久。特斯拉的自动驾驶系统等半自动产品具有足够的高度智能,可以应对大多数情况,但如果出现任何不可预测的情况,仍然需要人工干预。当真的出了问题时,很难知道是该怪汽车还是该怪司机。对于一些评论家来说,这种人机混合动力可能不如人类驾驶员安全,即使很难完全归咎于机器。兰德公司的一项研究估计,自动驾驶汽车必须行驶2.75亿英里而不发生致命事故,才能证明它们和人类司机一样安全。第一例与特斯拉自动驾驶系统有关的死亡发生在距离约1.3亿英里的地方,远低于这一标准。然而,由于深度学习是汽车识别物体并决定处理物体的关键,因此降低事故率可能比看起来更困难。杜克大学教授Mary Cummings,谈到今年早些时候优步导致一名行人死亡的事故时说:“这不是一个容易孤立的问题。感知决策周期往往是相互关联的,就像在导致行人死亡的事故中一样。由于感知的模糊性,我决定不采取任何行动;紧急制动系统被关闭,因为传感器发出的假警报太多。 “这起车祸以优步暂停其夏季自动驾驶测试而告终,这对其他计划推广该测试的公司来说是一个不祥的迹象。在这个行业,许多公司争相获得更多数据来解决问题,认为里程数最多的公司将建立最强大的系统。但尽管许多公司认为这只是数据问题,但马库斯认为这要多得多很难解决。Marcus说:“他们只是使用他们现有的技术,并希望它能奏效。他们依赖大数据,因为这是他们手头的利器,但没有证据表明它能让你达到我们需要的那种准确性。”

标签:特斯拉发现Model XModel S现代

汽车资讯热门资讯
"北斗天枢"战略 长安如何打开智能化时代的魔盒

在2018中国国际智能产业博览会上,长安逸动EV460通过模拟城镇路况场景,正完成L4级别自动驾驶汽车公开试乘体验。

1900/1/1 0:00:00
刘科:发展电动车不能靠炒作 选对技术“正道”超车

9月1日2日,“2018中国500强企业高峰论坛”在西安举行,国家千人计划联谊会副会长,澳大利亚国家工程院外籍院士,南方科技大学清洁能源研究院院长刘科现场演讲时表示,

1900/1/1 0:00:00
戴姆勒选定在华地图供应商 牵手四维地图

戴姆勒集团将选择中国北京四维信息技术有限公司作为其在中国地区的独家导航技术服务供应商。

1900/1/1 0:00:00
韩国万都获准在加州测试自动驾驶车辆

8月30日,韩国汽车零部件制造商万都公司(MandoCorp

1900/1/1 0:00:00
受美国贸易影响 全球汽车销售遭遇增长瓶颈

美媒称,在经过了近十年的增长后,世界最大汽车市场的新车销售进入自金融危机以来首个持续放慢期。伴随着美国贸易政策的不确定性,汽车销售利润面临压力。

1900/1/1 0:00:00
日系各家车企深耕亚洲市场 今年4-6月份销量增长15%

2018年46月份日系七大车企在除中日以外的亚洲市场销量达到132万台,较同期增长15,占了七家车企全球销售总量的19。份额越大,日系车企业绩越容易受到该区域市场状况影响。

1900/1/1 0:00:00