如果工作描述中列出了“必须消除所有法律义务、道德伦理和人性”作为职责,你会申请吗?根据一份新的报告,这实际上就是特斯拉自动驾驶车辆测试员的角色。
自动驾驶车辆是未来的趋势。如果科技公司如愿以偿,自动驾驶汽车将是唯一的未来。然而,我们大多数人生活在现实中,明白软件尚未达到科幻级别的自动化水平。但那些有资金的人会继续尝试并加速这一过程,即使这意味着在公共道路上进行测试,让我们这些普通人成为小白鼠。
商业内幕网站揭示了特斯拉测试团队Project Rodeo的细节。这支测试团队接受过训练,以测试制造商的全自动驾驶(FSD)和自动驾驶(Autopilot)软件的极限。测试的极限是什么?碰撞。但经验法则似乎是尽可能接近碰撞。情况越危险,效果越好。
“整个八小时的轮班几乎都在肾上腺素的作用下度过,”一位前测试员说。“有一种感觉,事情可能会严重出错。”
加州、佛罗里达州和德克萨斯州的九名现任和前任Project Rodeo测试员以及三名来自Autopilot的工程师接受了采访。大多数人都要求匿名。他们描述的情况令人震惊但并不令人意外。尽管FSD相关的事故已被广泛记录,但接受采访的人员中没有人参与其中。
Project Rodeo是一个由较小团队组成的测试组。例如,“金手册”团队按规则行事,遵守交通规则,不使用任何驾驶辅助功能。而另一端的“关键干预”团队则相反。更多的乘客而不是司机,关键干预测试员让软件处理所有驾驶方面的问题。他们仅在防止碰撞时才“干预”。
测试员们在最后一刻手动接管的原因之一是,这给了软件时间来反应并做出正确的或错误的决定。收集的数据越多,尤其是在实际场景中,工程师们调整和更新软件就越容易。
“我们想要的数据是了解汽车做出决定的原因,”一位前Autopilot工程师说。“如果你过早干预,我们无法真正了解发生的事情的确切时刻。”
然而,这导致了车辆在公共道路上允许闯红灯、跨越双黄线、忽视停止标志和超速行驶。即使驾驶情况变得让司机感到不安,监督人员也会说他们过早接管。因此,Project Rodeo的测试员,即使是非关键干预角色的测试员,也感到压力要维持危险的驾驶情况,有时甚至创造这些情况来测试软件以保住工作。
约翰·伯内尔,一位前测试员和数据分析师,说他从未被告知故意违法以收集数据,但暗示得很明显。“我的培训是在车轮触碰白线之前才能猛踩刹车,”他说。
此外,某些驾驶任务仅用于训练软件识别和适应“弱势道路使用者”,如行人、骑自行车者和轮椅使用者。一位前测试员说,在与他的教练一起驾驶时,他们的车辆在刹车前距离骑自行车者只有三英尺。
“我清晰地记得这个人从自行车上跳下来,”他说。“他很害怕。汽车冲向他,我只能猛踩刹车。”显然,他的教练对此感到高兴,告诉他他的迟缓反应“完美无缺”,正是他们想要他做的。“感觉就像目标是模拟一次撞车或不撞车的事故,然后在最后一刻阻止它。”
Cruise和Waymo也在开发自动驾驶汽车,但表示他们在受控环境中进行严格的软件测试,或者认为他们的自动驾驶系统“本质上不同于特斯拉的系统”。那么,为什么这些公司也会遇到车辆无法“读懂”情况的问题呢?以Uber已关闭的自动驾驶部门为例,有时结果是致命的。
“如果一个家长一直拿着自行车,它永远学不会,”一位前特斯拉工程师说。最终,数据为王。对于这些现在受股东摆布的自主技术公司来说,这是一个高风险高回报的环境,公众并未同意这种环境。
有线索吗?请发送至tips@thedrive.com
“`(编辑:卖车180小义)
如果您现在或者未来有卖车计划,可以关注“卖车180”微信公众号,卖车180,又快又高价。