“我是罪生的,我妈怀孕的时候我就有罪。”
在旧约诗篇51中,大卫王叹息道。奥古斯丁力推原罪论后,这两个沉重的字眼往往作为对那些莫名其妙的批评和指责的无奈回答。
作为新技术最耀眼的灯光之一,自动驾驶(广义,涵盖驾驶辅助)在最近的一系列风波中,陷入了“原罪”的漩涡。
在特斯拉酝酿已久的“AI日”开幕倒计时三天,马斯克出人意料地踢到了“铁板”——美国国家公路交通安全管理局(NHTSA)对特斯拉自动驾驶展开安全调查,覆盖76.5万辆汽车。嗯,这个数字是特斯拉去年全球销量的一半以上,或者说仅仅是2021年上半年销量的两倍。
中美新生力量的领导人已经不约而同地受挫。
不到一周前的8月12日,“美一号”创始人林文钦在沈海高速上驾驶蔚来ES8时,开启了NOP导航辅助功能。他的生命永远停在了31岁,因为他突然撞上了路边的一辆工程车。
在林文钦死亡的同一天,在小鹏的一家商店试驾期间,一名销售人员在向潜在客户演示ACC的自动跟车功能时,意外撞上了前方路口等待红灯的丰田锐志。而小鹏作为中国“离特斯拉最近、智能化应用最好的车企”,这样的表现自然令人惊讶。
网络上引起了轩然大波。不言而喻,特斯拉、蔚来和小鹏都面临压力,一些声音将矛头指向自动驾驶。“科技之光”瞬间陷入舆论风暴的风口浪尖,特斯拉市值甚至一夜蒸发300亿美元。
批评、责难和调查不是目的。既然已经流了血,成本无法收回,就要杜绝未来悲剧的重演。没有人希望新技术的光芒变成莲花;同样,也不要简单粗暴地把所有责任都推到厂商或用户身上,妖魔化新技术。
为什么autopilot会沾血?
不必丑化车企,但也不一定是简单的“过度宣传”;任何新技术都有有效性的边界和失败的风险。车企需要承担教育成本,用户需要支付学习成本。车企有更大的责任和义务为新技术的顺利落地做出努力,而不是因为惯性、惯性和节约成本而心虚和苦涩。
而不是口吐白沫,追查不到源头。
一个突然遭到猛烈攻击的新的权力领袖
毫不夸张地说,不到一周的时间,中美两国的新势力领袖都在自动驾驶领域被“绊倒”了。
如果不看Waymo、Cruise Automation、Zoox、Robotaxi、Robotruck,只看家用车的智能化领域,那么毫无疑问,特斯拉、蔚来、小鹏几乎代表了世界的最高水平——虽然家用车的自动驾驶水平还停留在L2驾驶辅助,但远不如Robotaxi、Robotruck中的L4先进。
关于林文钦蔚来汽车致命事故和小鹏出售ACC测试车的文章已经够多了。我们无意讨论“因为是驾驶辅助,车企可以免责”,也无意去黑车企“用自动驾驶人”。我们希望从源头上探究“问题出在哪里”。
在分析之前,我们先来看看:最新被调查的特斯拉autopilot是什么?
据美联社和路透社8月16日消息,NHTSA对特斯拉的自动驾驶系统展开正式调查,原因是“难以识别停在路边的紧急车辆”。自2018年以来,NHTSA已确认在美国发生了11起撞车和交通事故,其中大部分都与特斯拉的自动驾驶系统有关。
NHTSA在2017年结束了对特斯拉自动驾驶辅助系统的初步调查,但该机构当时没有采取任何行动。虽然此事一度被美国监管部门忽视,但特斯拉自动驾驶的安全隐患继续备受关注。在后续诸多事故的重压下,外界的批评和质疑从未停止。
最新调查意味着什么?
调查结束后,美国监管机构可以选择召回车辆或限制使用特斯拉AutoPilot的部分功能。一旦特斯拉的AutoPilot在功能使用、使用时间、使用地点等方面被美国大本营进一步限制,将直接影响公司在自动驾驶辅助系统领域的发展,因为数据和路段的积累将会比以前更弱。
甚至,会被竞争对手超越。
最新消息爆出后,特斯拉至今没有对NHTSA的调查给出官方答复,但在此之前,作为公司负责人的马斯克曾多次在公开场合为自己的自动驾驶辅助系统辩护,他甚至在今年4月发布推特称,配备自动驾驶的特斯拉车辆现阶段发生事故的概率只有十分之一。
NHTSA报告说,在过去的11起相关车祸中,共有17人受伤,1人死亡。唯一一次致命事故发生在2019年12月,一辆特斯拉Model 3在美国印第安纳州与一辆消防车相撞,造成一名乘客死亡。
目前,美国监管机构已经对2014-2021年生产的特斯拉Model 3、Model Y、Model S和Model X进行了调查,确认这11起事故都与特斯拉的自动驾驶辅助系统有关。据悉,这11起车祸大多发生在天黑后,其典型特征是无法识别其他低速行驶或静止的车辆。在NHTSA正式决定召回相关车辆之前,该机构必须对自动驾驶进行更详细的调查,整个调查过程可能需要一年或更长时间。
特斯拉的压力还来自其他方面。
美国国家运输安全委员会(NTSB)多次批评特斯拉AutoPilot缺乏相关的安全保障。近年来,NTSB一再敦促NHTAS制定与自主dri相关的监测和安全标准……ng,并要求汽车制造商将相关标准纳入初步设计和制造流程。
在此之前,来自民主党的多名参议员对特斯拉的自动驾驶辅助系统提出质疑,他们曾敦促相关机构进行彻底、透明的调查,以提高特斯拉自动驾驶的安全性,防止更多碰撞。
至于在林文钦发生的车祸,首先,我们自然要向死者表示哀悼和遗憾。由于和相关部门还没有给出最终的结论和判断,所以现在急着指责谁还为时过早。至于“蔚来员工涉嫌私自接近车辆被传唤”的传言,不要什么都信,以和法院的信息为准。我们只能做条件假设——如果林文钦疏于控制,发生车祸,那么按照L2驾驶辅助的定义,主要责任由司机本人承担;如果死机是系统问题导致的,那就是厂商的责任。
于是,短短一周时间,中国和美国这两个汽车市场最大、智能网联最有前景的国家,就被各自最大的亮点——自动驾驶坑了。难怪一时间,“自动驾驶不靠谱”的声音又开始滋长。
自动驾驶的多面“原罪”
“别把命交给机器!”
“我不信任汽车!"
过去,自行车共享的泡沫还未破灭,出行市场的“原罪论”一度甚嚣尘上:越来越多的从业者发现,整个赛道的发展已经不再以真正的“共享”为目标,而是陷入了盲目跑马圈地和金钱鬼混的恶性循环。
自动驾驶走在最前沿有原罪吗?
在C维看来,这是一个辩证混乱的命题,看出发点。
在新技术诞生之初,光是命名和解读就要花费大量的成本和精力。如果我们采取一种固有的名称,并根据粗糙的知识和当地的材料进行解释,这很容易导致误导,更不用说借助更高科技水平的名称进行夸大宣传了。如果把这种风险和压力定义为一种“原罪”,可以说得过去。甚至在可能造成虚假宣传/过度宣传的第一步之后,新技术是否有原罪也有了双重答案。
如果新技术有风险,一定要谨慎防范风险,减少损失,需要抱着“看原罪”的态度,每一步发展都要以人为本,以客户为导向,以生命财产安全为导向,而不是顶着“新技术”的炫酷光环给营销增加筹码。
从权利与责任的落实来看,技术本身就是一种工具,并不存在固有的善恶,而是取决于使用者如何使用,生产者如何定义,立法者如何引导规范。与其说技术本身有原罪,不如说新技术需要付出额外的成本
厂商有教育成本,用户有学习成本。如果其中任何一方因为惯性或者经济利益而偷偷越过支付成本,都有可能因为这种操作失范而导致事故和罪恶。
你觉得上面的抽象讨论不好理解吗?没关系。下面我们结合自动驾驶的定义和特点来解释一下为什么“原罪论”有两重性。
0
围绕特斯拉自动驾驶和蔚来NOP致命事故的调查,我们采访了同济大学汽车学院朱锡禅教授,他表示区分自动驾驶和驾驶辅助非常关键。
“目前在售车型不是自动驾驶(L3/4),而是辅助驾驶系统(L2),”朱锡禅教授认为,广义自动驾驶(包括驾驶辅助)的水平将对事故责任起到关键作用。“对于辅助驾驶系统来说,驾驶员离不开驾驶。使用L2辅助驾驶系统时,驾驶员离开驾驶岗位造成事故的,由驾驶员承担事故责任。”
所以“不要把自己的生命交给机器”这种说法其实有一个无法自洽的bug,因为驾驶员辅助并没有让用户把生命安全托付给机器,人员始终是车辆控制的主人。在系统正常工作背景下,一旦发生事故,自然是人员承担责任。
1
那么L0到L5有什么特点呢?我们在这里再复习一遍。
L0/1/2/3/4/5是美国汽车工程学会SAE制定的汽车驾驶自动化水平。按照车辆功能和控制权/责任归属进行划分,等级从L0无自动化、L1辅助驾驶、L2部分自动驾驶、L3有条件自动驾驶、L4高度自动驾驶升级到L5全自动驾驶。“我是罪生的,我妈怀孕的时候我就有罪。”
在旧约诗篇51中,大卫王叹息道。奥古斯丁力推原罪论后,这两个沉重的字眼往往作为对那些莫名其妙的批评和指责的无奈回答。
作为新技术最耀眼的灯光之一,自动驾驶(广义,涵盖驾驶辅助)在最近的一系列风波中,陷入了“原罪”的漩涡。
在特斯拉酝酿已久的“AI日”开幕倒计时三天,马斯克出人意料地踢了一脚……他“铁板一块”——美国国家公路交通安全管理局(NHTSA)对特斯拉自动驾驶展开安全调查,覆盖76.5万辆汽车。嗯,这个数字是特斯拉去年全球销量的一半以上,或者说仅仅是2021年上半年销量的两倍。
中美新生力量的领导人已经不约而同地受挫。
不到一周前的8月12日,“美一号”创始人林文钦在沈海高速上驾驶蔚来ES8时,开启了NOP导航辅助功能。他的生命永远停在了31岁,因为他突然撞上了路边的一辆工程车。
在林文钦死亡的同一天,在小鹏的一家商店试驾期间,一名销售人员在向潜在客户演示ACC的自动跟车功能时,意外撞上了前方路口等待红灯的丰田锐志。而小鹏作为中国“离特斯拉最近、智能化应用最好的车企”,这样的表现自然令人惊讶。
网络上引起了轩然大波。不言而喻,特斯拉、蔚来和小鹏都面临压力,一些声音将矛头指向自动驾驶。“科技之光”瞬间陷入舆论风暴的风口浪尖,特斯拉市值甚至一夜蒸发300亿美元。
批评、责难和调查不是目的。既然已经流了血,成本无法收回,就要杜绝未来悲剧的重演。没有人希望新技术的光芒变成莲花;同样,也不要简单粗暴地把所有责任都推到厂商或用户身上,妖魔化新技术。
为什么autopilot会沾血?
不必丑化车企,但也不一定是简单的“过度宣传”;任何新技术都有有效性的边界和失败的风险。车企需要承担教育成本,用户需要支付学习成本。车企有更大的责任和义务为新技术的顺利落地做出努力,而不是因为惯性、惯性和节约成本而心虚和苦涩。
而不是口吐白沫,追查不到源头。
一个突然遭到猛烈攻击的新的权力领袖
毫不夸张地说,不到一周的时间,中美两国的新势力领袖都在自动驾驶领域被“绊倒”了。
如果不看Waymo、Cruise Automation、Zoox、Robotaxi、Robotruck,只看家用车的智能化领域,那么毫无疑问,特斯拉、蔚来、小鹏几乎代表了世界的最高水平——虽然家用车的自动驾驶水平还停留在L2驾驶辅助,但远不如Robotaxi、Robotruck中的L4先进。
关于林文钦蔚来汽车致命事故和小鹏出售ACC测试车的文章已经够多了。我们无意讨论“因为是驾驶辅助,车企可以免责”,也无意去黑车企“用自动驾驶人”。我们希望从源头上探究“问题出在哪里”。
在分析之前,我们先来看看:最新被调查的特斯拉autopilot是什么?
据美联社和路透社8月16日消息,NHTSA对特斯拉的自动驾驶系统展开正式调查,原因是“难以识别停在路边的紧急车辆”。自2018年以来,NHTSA已确认在美国发生了11起撞车和交通事故,其中大部分都与特斯拉的自动驾驶系统有关。
NHTSA在2017年结束了对特斯拉自动驾驶辅助系统的初步调查,但该机构当时没有采取任何行动。虽然此事一度被美国监管部门忽视,但特斯拉自动驾驶的安全隐患继续备受关注。在后续诸多事故的重压下,外界的批评和质疑从未停止。
最新调查意味着什么?
调查结束后,美国监管机构可以选择召回车辆或限制使用特斯拉AutoPilot的部分功能。一旦特斯拉的AutoPilot在功能使用、使用时间、使用地点等方面被美国大本营进一步限制,将直接影响公司在自动驾驶辅助系统领域的发展,因为数据和路段的积累将会比以前更弱。
甚至,会被竞争对手超越。
最新消息爆出后,特斯拉至今没有对NHTSA的调查给出官方答复,但在此之前,作为公司负责人的马斯克曾多次在公开场合为自己的自动驾驶辅助系统辩护,他甚至在今年4月发布推特称,配备自动驾驶的特斯拉车辆现阶段发生事故的概率只有十分之一。
NHTSA报告说,在过去的11起相关车祸中,共有17人受伤,1人死亡。唯一一次致命事故发生在2019年12月,一辆特斯拉Model 3在美国印第安纳州与一辆消防车相撞,造成一名乘客死亡。
目前,美国监管机构已经对2014-2021年生产的特斯拉Model 3、Model Y、Model S和Model X进行了调查,确认这11起事故都与特斯拉的自动驾驶辅助系统有关。据悉,这11起车祸大多发生在天黑后,其典型特征是无法识别其他低速行驶或静止的车辆。在NHTSA正式决定召回相关车辆之前,该机构必须对自动驾驶进行更详细的调查,整个调查过程可能需要一年或更长时间。
特斯拉的压力还来自其他方面。
美国国家运输安全委员会(NTSB)多次批评特斯拉AutoPilot缺乏相关的安全保障。近年来,NTSB一再敦促NHTAS制定与自主dri相关的监测和安全标准……ng,并要求汽车制造商将相关标准纳入初步设计和制造流程。
在此之前,来自民主党的多名参议员对特斯拉的自动驾驶辅助系统提出质疑,他们曾敦促相关机构进行彻底、透明的调查,以提高特斯拉自动驾驶的安全性,防止更多碰撞。
至于在林文钦发生的车祸,首先,我们自然要向死者表示哀悼和遗憾。由于和相关部门还没有给出最终的结论和判断,所以现在急着指责谁还为时过早。至于“蔚来员工涉嫌私自接近车辆被传唤”的传言,不要什么都信,以和法院的信息为准。我们只能做条件假设——如果林文钦疏于控制,发生车祸,那么按照L2驾驶辅助的定义,主要责任由司机本人承担;如果死机是系统问题导致的,那就是厂商的责任。
于是,短短一周时间,中国和美国这两个汽车市场最大、智能网联最有前景的国家,就被各自最大的亮点——自动驾驶坑了。难怪一时间,“自动驾驶不靠谱”的声音又开始滋长。
自动驾驶的多面“原罪”
“别把命交给机器!”
“我不信任汽车!"
过去,自行车共享的泡沫还未破灭,出行市场的“原罪论”一度甚嚣尘上:越来越多的从业者发现,整个赛道的发展已经不再以真正的“共享”为目标,而是陷入了盲目跑马圈地和金钱鬼混的恶性循环。
自动驾驶走在最前沿有原罪吗?
在C维看来,这是一个辩证混乱的命题,看出发点。
在新技术诞生之初,光是命名和解读就要花费大量的成本和精力。如果我们采取一种固有的名称,并根据粗糙的知识和当地的材料进行解释,这很容易导致误导,更不用说借助更高科技水平的名称进行夸大宣传了。如果把这种风险和压力定义为一种“原罪”,可以说得过去。甚至在可能造成虚假宣传/过度宣传的第一步之后,新技术是否有原罪也有了双重答案。
如果新技术有风险,一定要谨慎防范风险,减少损失,需要抱着“看原罪”的态度,每一步发展都要以人为本,以客户为导向,以生命财产安全为导向,而不是顶着“新技术”的炫酷光环给营销增加筹码。
从权利与责任的落实来看,技术本身就是一种工具,并不存在固有的善恶,而是取决于使用者如何使用,生产者如何定义,立法者如何引导规范。与其说技术本身有原罪,不如说新技术需要付出额外的成本
厂商有教育成本,用户有学习成本。如果其中任何一方因为惯性或者经济利益而偷偷越过支付成本,都有可能因为这种操作失范而导致事故和罪恶。
你觉得上面的抽象讨论不好理解吗?没关系。下面我们结合自动驾驶的定义和特点来解释一下为什么“原罪论”有两重性。
0
围绕特斯拉自动驾驶和蔚来NOP致命事故的调查,我们采访了同济大学汽车学院朱锡禅教授,他表示区分自动驾驶和驾驶辅助非常关键。
“目前在售车型不是自动驾驶(L3/4),而是辅助驾驶系统(L2),”朱锡禅教授认为,广义自动驾驶(包括驾驶辅助)的水平将对事故责任起到关键作用。“对于辅助驾驶系统来说,驾驶员离不开驾驶。使用L2辅助驾驶系统时,驾驶员离开驾驶岗位造成事故的,由驾驶员承担事故责任。”
所以“不要把自己的生命交给机器”这种说法其实有一个无法自洽的bug,因为驾驶员辅助并没有让用户把生命安全托付给机器,人员始终是车辆控制的主人。在系统正常工作背景下,一旦发生事故,自然是人员承担责任。
1
那么L0到L5有什么特点呢?我们在这里再复习一遍。
L0/1/2/3/4/5是美国汽车工程学会SAE制定的汽车驾驶自动化水平。按照车辆功能和控制权/责任归属进行划分,等级从L0无自动化、L1辅助驾驶、L2部分自动驾驶、L3有条件自动驾驶、L4高度自动驾驶升级到L5全自动驾驶。在国内,工信部2016年节能与新能源汽车技术路线图和2020年汽车驾驶自动化分级,在强化了“将L0提高到L2水平,用于监控驾驶员接管能力和风险缓解策略,明确最低安全要求,降低实际应用中的安全风险”的要求后,形成了自己的整体上与SAE标准相似的分级标准:
1.DA(驾驶员辅助):驾驶员辅助系统。根据环境信息,执行转向以及加速和减速中的一个,并且执行其他驱动……操作是由人来完成的。在车道内正常行驶,高速公路无车道干扰路段,具备停车条件。
2.PA(部分自动化):部分自动驾驶系统。根据环境信息进行转向和加减速操作,其他驾驶操作由人完成。高速公路和市区无车道干扰、变道、绕行、堵车等工况。
3.CA(高度自动化):有条件自动驾驶。系统完成所有的驾驶操作,驾驶员需要根据系统要求提供适当的干预。
4.HA(全自动化):高度自动驾驶。系统完成所有驾驶操作。在某些情况下,系统会向驱动程序发出响应请求,而驱动程序可能不会响应系统请求。高速公路和有车道干扰的市区的所有工况。
5.FA:全自动驾驶。该系统可以在没有驾驶员干预的情况下,完成驾驶员可以完成的所有道路环境下的操作。所有驾驶条件。
4
你如何区分这六个层次级别?最根本的因素不是传感器的数量和芯片的数量,而是控制权/责任的归属。L0到L2,或者12.5甚至12.999……正如许多企业所说...责任和担当都在人本身。另一方面,L4在少数情况下需要驾驶员的干预,而L5则完全不需要安全员/驾驶员,甚至取消了方向盘和刹车踏板。
中间级别的L3争议最大,因为它需要在人和车之间频繁地来回转移控制权/责任,以至于丰田等公司放弃L3,直接从L2跳到L4/5——不是L3不行,而是过于频繁地切换权力和责任会增加风险。正因为如此,业界一般称之为L1/2驾驶辅助,至少L3才能称之为自动驾驶。
换句话说,广义的自动驾驶和狭义的自动驾驶,驾驶辅助属于前者。一旦混淆了这个概念,盲目信任驾驶辅助(广义自动驾驶中的一种低阶技术)可能会导致血的教训。
正如朱希禅教授所说,无论特斯拉的Autopilot FSD,蔚来的NOP,还是小鹏的NGP,都属于责任完全由人类承担的L2级别的驾驶辅助系统,或者也可以称为“自动驾驶辅助系统”,但与狭义的“自动驾驶”有着本质的区别。
看,我们花了这么长时间向你解释什么是自动驾驶,什么是驾驶辅助,什么是L0,什么是L2,什么是L5。这种复杂的内涵和沉重的解读成本,在某种意义上是不是新技术的“原罪”?
5
原罪的延伸不止于此。
我们前面提到了厂商的教育成本和用户的学习成本——不要以为的辅助驾驶不会意味着厂商在事故中不用承担责任,即使用户在特定事故中要承担全部或主要责任(比如美国的乔舒亚·布朗和中国的高·都因特斯拉AutoPilot使用不当而死亡),也不代表企业完全不用反思和受到谴责。
是的,我们不要蔚来,但我们不会说蔚来在这次事故中完全没有责任。真相是什么?一部分在于本章提到的教育成本,另一部分在于下一章要讨论的重点——过度宣传/营销。
过分张扬的无助和无赖
这里有一个平衡,一个是教育,一个是营销。当教育的分量不足时,你就会有意无意地从这一端滑到营销端。如果这个幻灯片是故意的,甚至是恶意的,那就是过度推广,过度营销。
先继续说教育成本,因为话题会像个砝码一样逐渐滑向过度推广。
特斯拉、蔚来和小鹏对用户的教育足够吗?让他们知道L2是什么。让他们知道在使用自动驾驶FSD,NOP,NGP的时候,放弃控制是驾驶员的责任?
6
从……开始具体表现,小鹏最好,蔚来居中,特斯拉承担的教育成本最少。
如果汽车首次主要激活小鹏NGP系统,它需要通过“NGP”考试。在这个过程中,它需要观看5分钟左右的解说视频,视频中明确提到驾驶辅助不是自动驾驶;此外,小鹏还在多次演讲中表示,“辅助驾驶不可能起到自动驾驶的效果”。
从官方宣传来看,蔚来并没有给NOP下“自动驾驶”的定义,一直是“驾驶辅助”的名号,自然产品手册甚至是白纸黑字。然而,蔚来的驾驶辅助教育机制缺乏像小鹏那样的用户评估流程。
此外,蔚来副总裁微博因用NOP开车,分散注意力,已被从网上删除。从某种意义上说,饮食对注意力分散的影响是一个模糊的概念。一些在驾驶辅助领域做得比较好的车企也表示“我们的系统可以解放你的双手,休息一下,吃点东西”——毕竟“每秒吃一口”和花半个小时分心吃一顿饭还是有巨大差距的。但沈飞的旧微博在如今的敏感背景下被翻出,自然难逃“不合理引导”的非议。
7
特斯拉被我们媒体写过很多负面文章,自动驾驶的定义和宣传是“重灾区”。早期,特斯拉甚至在中国产品手册中将AutoPilot称为“自动驾驶”。后来很多严重事故把厂家改成了“驾驶辅助”。这是特斯拉对教育投入不足的典型写照。另一方面,这只是一个棘手的过度宣传。
2013年,马斯克借用了航空领域的autopilot的名称来命名特斯拉的半自动驾驶系统,所以我们可以看到维基词条中有特斯拉autopilot和Autopilot,特斯拉的Autopilot是单独列出来的。三年后,在接受theverge.com采访时,马斯克提到了“全自动驾驶”,四年后,特斯拉FSD一举成名。
从含义上看,似乎很正确:Autopilot系统直译为“自动导航”,外行人有理由解读为与“自动驾驶”没有太大区别。在特斯拉的中文手册中曾被称为自动驾驶,但在一次事故后被改为“驾驶辅助”;在Autopilot基础上开发的FSD,英文是全自动驾驶,简单的说就是“完全自动驾驶”,每个字都不差。
无论是汽车界、科技界还是吃瓜群众,相信大家都还记得,火星钢铁侠信誓旦旦要在前两年实现L5全自动驾驶。FSD似乎是特斯拉对世界的回答:Autopilot是驾驶辅助,FSD是L5自动驾驶。真的是高低配,干活不累。
8
一个很大的问题是如何定义过度推广。
同济大学法学院互联网与人工智能法律研究中心主任张韬略副教授认为,关键在于宣传行为是否构成误导甚至欺诈,但这要结合整个宣传场景和提供的具体信息来分析宣传行为。
过度宣传不是一个法律概念。如果要追究特斯拉等公司的责任,必须从法律责任的角度认定行为的违法性和行为主体。宣传的违法性一般涉及广告法、不正当竞争法等相关法律。根据这些法律,如果证实虚假宣传,可以进行行政处罚,但这是行政处罚法领域的责任。如果消费者上当受,消费者权益保护法和合同法中都会有责任,但这些和事故发生后的侵权责任(如司机责任)不是一个范畴。
而且在具体的事故案例中,还很难认定特斯拉等公司有责任。因为整个购车流程都是追溯的,用户手册有详细的说明,用户需要签订各种协议,通常还有一个信息告知的过程。而且具体销售人员和购车者的口头宣传如果采取打擦边球的方式,也很难找到确切的证据证明购车者被自动驾驶的说法误导。
但是,一旦执法部门确认4s店或销售人员涉嫌虚假宣传、误导消费者,并认定其侵犯了消费者的知情权、人身和财产安全,可以对其进行罚款,甚至吊销其营业执照。
9
有人问:为什么推所谓的自动驾驶?为什么你的“汽车公社”/“C元”总是批评特斯拉?而不是用同样的力度批评魏莱和小鹏?
显然,小鹏在上述教育成本方面做得最好。目前还没有看到过度宣传的石锤;蔚来有一些缺点。沈飞过去在微博中涉嫌“过度宣传”。考虑到程度和时间,行业不适合坚持下去;特斯拉不仅没有进行“驾驶辅助不是自动驾驶”的教育,还炒作“自动驾驶”的红利,已经进入了“过度推广”的雷区。
功能的“边界”从来不小于“方便”。《倚天屠龙记》中,张无忌加大了常遇春的药的剂量,治愈功能变成了“失去半条命”。取驾驶员辅助功能,自动驾驶时使用。这会是个问题吗?
0
消费者在厂商面前处于传统观念的弱势地位,所以我们只用几句话来强调——
所有新技术的使用者,包括驾驶辅助和自动驾驶,都必须付出足够的学习成本,掌握新技术的界限和使用诀窍,才能安全地享受技术带来的便利和舒适。而厂商则必须记住新技术原罪的嫌疑,杜绝过度宣传,付出足够的教育成本。
永远以初心为恒心,不要以星光为莲花。
包括自动驾驶,如果所有新技术的“原罪”都能被厂商和用户记住,那么这个罪就不会从黑暗的洞穴中释放出来。毕竟,当你把黑暗抛在身后,你就会面对光明。在国内,工信部2016年节能与新能源汽车技术路线图和2020年汽车驾驶自动化分级,在强化了“将L0提高到L2水平,用于监控驾驶员接管能力和风险缓解策略,明确最低安全要求,降低实际应用中的安全风险”的要求后,形成了自己的整体上与SAE标准相似的分级标准:
1.DA(驾驶员辅助):驾驶员辅助系统。根据环境信息进行转向和加减速中的一种,其他驾驶操作由人完成。在车道内正常行驶,高速公路无车道干扰路段,具备停车条件。
2.PA(部分自动化):部分自动驾驶系统。根据环境信息进行转向和加减速操作,其他驾驶操作由人完成。高速公路和市区无车道干扰、变道、绕行、堵车等工况。
3.CA(高度自动化):有条件自动驾驶。系统完成所有的驾驶操作,驾驶员需要根据系统要求提供适当的干预。
4.HA(全自动化):高度自动驾驶。系统完成所有驾驶操作。在某些情况下,系统会向驱动程序发出响应请求,而驱动程序可能不会响应系统请求。高速公路和有车道干扰的市区的所有工况。
5.FA:全自动驾驶。该系统可以在没有驾驶员干预的情况下,完成驾驶员可以完成的所有道路环境下的操作。所有驾驶条件。
4
你如何区分这六个层次级别?最根本的因素不是传感器的数量和芯片的数量,而是控制权/责任的归属。L0到L2,或者12.5甚至12.999……正如许多企业所说...责任和担当都在人本身。另一方面,L4在少数情况下需要驾驶员的干预,而L5则完全不需要安全员/驾驶员,甚至取消了方向盘和刹车踏板。
中间级别的L3争议最大,因为它需要在人和车之间频繁地来回转移控制权/责任,以至于丰田等公司放弃L3,直接从L2跳到L4/5——不是L3不行,而是过于频繁地切换权力和责任会增加风险。正因为如此,业界一般称之为L1/2驾驶辅助,至少L3才能称之为自动驾驶。
换句话说,广义的自动驾驶和狭义的自动驾驶,驾驶辅助属于前者。一旦混淆了这个概念,盲目信任驾驶辅助(广义自动驾驶中的一种低阶技术)可能会导致血的教训。
正如朱锡禅教授所说,无论是特斯拉的Autopilot FSD、蔚来的NOP还是小鹏的NGP,他们都是……属于L2级别的驾驶辅助系统,其责任完全是人为的,或者也可以称为“自动驾驶辅助系统”,但与狭义的“自动驾驶”有本质区别。
看,我们花了这么长时间向你解释什么是自动驾驶,什么是驾驶辅助,什么是L0,什么是L2,什么是L5。这种复杂的内涵和沉重的解读成本,在某种意义上是不是新技术的“原罪”?
5
原罪的延伸不止于此。
我们前面提到了厂商的教育成本和用户的学习成本——不要以为的辅助驾驶不会意味着厂商在事故中不用承担责任,即使用户在特定事故中要承担全部或主要责任(比如美国的乔舒亚·布朗和中国的高·都因特斯拉AutoPilot使用不当而死亡),也不代表企业完全不用反思和受到谴责。
是的,我们不要蔚来,但我们不会说蔚来在这次事故中完全没有责任。真相是什么?一部分在于本章提到的教育成本,另一部分在于下一章要讨论的重点——过度宣传/营销。
过分张扬的无助和无赖
这里有一个平衡,一个是教育,一个是营销。当教育的分量不足时,你就会有意无意地从这一端滑到营销端。如果这个幻灯片是故意的,甚至是恶意的,那就是过度推广,过度营销。
先继续说教育成本,因为话题会像个砝码一样逐渐滑向过度推广。
特斯拉、蔚来和小鹏对用户的教育足够吗?让他们知道L2是什么。让他们知道在使用自动驾驶FSD,NOP,NGP的时候,放弃控制是驾驶员的责任?
6
从具体表现来看,小鹏最好,蔚来居中,特斯拉承担的教育成本最少。
如果汽车首次主要激活小鹏NGP系统,它需要通过“NGP”考试。在这个过程中,它需要观看5分钟左右的解说视频,视频中明确提到驾驶辅助不是自动驾驶;此外,小鹏还在多次演讲中表示,“辅助驾驶不可能起到自动驾驶的效果”。
从官方宣传来看,蔚来并没有给NOP下“自动驾驶”的定义,一直是“驾驶辅助”的名号,自然产品手册甚至是白纸黑字。然而,蔚来的驾驶辅助教育机制缺乏像小鹏那样的用户评估流程。
此外,蔚来副总裁微博因用NOP开车,分散注意力,已被从网上删除。从某种意义上说,饮食对注意力分散的影响是一个模糊的概念。一些在驾驶辅助领域做得比较好的车企也表示“我们的系统可以解放你的双手,休息一下,吃点东西”——毕竟“每秒吃一口”和花半个小时分心吃一顿饭还是有巨大差距的。但沈飞的旧微博在如今的敏感背景下被翻出,自然难逃“不合理引导”的非议。
7
特斯拉被我们媒体写过很多负面文章,自动驾驶的定义和宣传是“重灾区”。早期,特斯拉甚至在中国产品手册中将AutoPilot称为“自动驾驶”。后来很多严重事故把厂家改成了“驾驶辅助”。这是特斯拉对教育投入不足的典型写照。另一方面,这只是一个棘手的过度宣传。
2013年,马斯克借用了航空领域的autopilot的名称来命名特斯拉的半自动驾驶系统,所以我们可以看到维基词条中有特斯拉autopilot和Autopilot,特斯拉的Autopilot是单独列出来的。三年后,在接受theverge.com采访时,马斯克提到了“全自动驾驶”,四年后,特斯拉FSD一举成名。
从含义上看,似乎很正确:Autopilot系统直译为“自动导航”,外行人有理由解读为与“自动驾驶”没有太大区别。在特斯拉的中文手册中曾被称为自动驾驶,但在一次事故后被改为“驾驶辅助”;在Autopilot基础上开发的FSD,英文是全自动驾驶,简单的说就是“完全自动驾驶”,每个字都不差。
无论是汽车界、科技界还是吃瓜群众,相信大家都还记得,火星钢铁侠信誓旦旦要在前两年实现L5全自动驾驶。FSD似乎是特斯拉对世界的回答:Autopilot是驾驶辅助,FSD是L5自动驾驶。真的是高低配,干活不累。
8
一个很大的问题是如何定义过度推广。
同济大学法学院互联网与人工智能法律研究中心主任张韬略副教授认为,关键在于宣传行为是否构成误导甚至欺诈,但这要结合整个宣传场景和提供的具体信息来分析宣传行为。
过度宣传不是一个法律概念。如果要追究特斯拉等公司的责任,必须从法律责任的角度认定行为的违法性和行为主体。宣传的违法性一般涉及广告法、不正当竞争法等相关法律。根据这些法律,如果证实虚假宣传,可以进行行政处罚,但这是行政处罚法领域的责任。如果消费者上当受,消费者权益保护法和合同法中都会有责任,但这些和事故发生后的侵权责任(如司机责任)不是一个范畴。
而且在具体的事故案例中,还很难认定特斯拉等公司有责任。因为整个购车流程都是追溯的,用户手册有详细的说明,用户需要签订各种协议,通常还有一个信息告知的过程。而且具体销售人员和购车者的口头宣传如果采取打擦边球的方式,也很难找到确切的证据证明购车者被自动驾驶的说法误导。
但是,一旦执法部门确认4s店或销售人员涉嫌虚假宣传、误导消费者,并认定其侵犯了消费者的知情权、人身和财产安全,可以对其进行罚款,甚至吊销其营业执照。
9
有人问:为什么推所谓的自动驾驶?为什么你的“汽车公社”/“C元”总是批评特斯拉?而不是用同样的力度批评魏莱和小鹏?
显然,小鹏在上述教育成本方面做得最好。目前还没有看到过度宣传的石锤;蔚来有一些缺点。沈飞过去在微博中涉嫌“过度宣传”。考虑到程度和时间,行业不适合坚持;特斯拉不仅没有进行“驾驶辅助不是自动驾驶”的教育,还炒作“自动驾驶”的红利,已经进入了“过度推广”的雷区。
功能的“边界”从来不小于“方便”。《倚天屠龙记》中,张无忌加大了常遇春的药的剂量,治愈功能变成了“失去半条命”。取驾驶员辅助功能,自动驾驶时使用。这会是个问题吗?
0
消费者在厂商面前处于传统观念的弱势地位,所以我们只用几句话来强调——
所有新技术的使用者,包括驾驶辅助和自动驾驶,都必须付出足够的学习成本,掌握新技术的界限和使用诀窍,才能安全地享受技术带来的便利和舒适。而厂商则必须记住新技术原罪的嫌疑,杜绝过度宣传,付出足够的教育成本。
永远以初心为恒心,不要以星光为莲花。
包括自动驾驶,如果所有新技术的“原罪”都能被厂商和用户记住,那么这个罪就不会从黑暗的洞穴中释放出来。毕竟,当你把黑暗抛在身后,你就会面对光明。
安通林携用于全景天窗顶棚的轻量化注塑骨架确认申报2021年金辑奖汽车新供应链百强评选活动。
1900/1/1 0:00:00蜂巢智能转向科技携DPEPS确认申报2021年金辑奖汽车新供应链百强评选活动。
1900/1/1 0:00:008月17日,据知情人士透露,由于马来西亚疫情日趋严重,某半导体芯片供应商的马来西亚Muar工厂继之前数周关厂,再度被当地政府要求关闭部分生产线至8月21日,
1900/1/1 0:00:00英搏尔电气携“集成芯”驱动总成确认申报2021年金辑奖汽车新供应链百强评选活动。
1900/1/1 0:00:00蜂巢易创科技携大扭矩紧凑型高效混动动力总成确认申报2021年金辑奖汽车新供应链百强评选活动。
1900/1/1 0:00:00随着ID系列车型的不断上市交付,大众汽车在补能方面的动作也在快速跟进。
1900/1/1 0:00:00