消费者对于特斯拉自动驾驶的态度,一直都是两极分化特别严重,有人追崇,也有人表示质疑。前不久才被美国交通安全管理局调查,这边还没结果,另一边,火又烧起来了。这一次是关于特斯拉FSD Beta,此项技术于2020年9月推出,目前只开放给美国车主付费使用,安全性一直都备受质疑,推出不同版本后都会有用户反馈在使用中会出现不同的问题。此前就曾有用户反馈在9.0版本中,车子在转变后不能识别出路边的树木,甚至连单行道与公交车道都不能识别出来。
8月9日,一个名为Dan O'Dowd的网友在社交平台发布一则关于特斯拉FSD评测视频,视频中显示,在评测过程中,特斯拉多次撞上了儿童假人模型,对此,他表示对评测结果感到非常不安。Dan O'Dowd还称,这样的结果群众应该采取行动呼声,虽然特斯拉CEO马斯克对特斯拉的FSD表示非常自信,但其实这对所有美国人都会产生致命的威胁。
此外,参加测试的人员也在测试报道中表示,在过去的一个月内对特斯拉进行了几十次测试,虽然在撞到模型之前车速会放慢一些,但最后还是超过每小时25英里的速度撞击并碾压了人体模型。在操作过程中车是以每小时40英里的速度启动,在指定车道内行驶100码之后,就会撞上人体模型。
难道说特斯拉真的要翻车了吗?不过值得一提的是,Dan O'Dowd并不是普通的网友,而是Green Hills Software的CEO,他曾在去年发起一项禁止汽车的安全系统中使用不安全软件,其中就有包括对特斯拉FSD的测试,迄今为止,“黎明计划”已经发布了数个批评特斯拉FSD的广告,包括这次。而Dan O'Dowd也一直被网友们成为“特斯拉的批评者”、“特斯拉最大黑粉”,所以这项测试结果到底有没有带入个人感情色彩是个疑问。
对于Dan O'Dowd发布的测试视频,特斯拉的“社交达人”马斯克也做出了回应,他称大家都上了视频的当。还有网友指出,在评测过程中,似乎并没有打开特斯拉的FSD,另一部分人则表示,之所以特斯拉会径直向假人撞上去,那是因为系统识别出了假人并不是真人,如果是真人,那么结果可能就会不一样,不过肯定也不能用真人来测试。
不论结果是怎样,我们消费者要知道的是,到目前为止,市面上还没有一台车型可以实现自动驾驶,都需要驾驶员进行操控,在使用过程中驾驶员还是应该随时注意驾驶状况,而关于FSD系统,无论马斯克说得多么绝对安全,但只要犯一次错,后果就可能不堪设想。
来源:https://www.pcauto.com.cn/hj/article/1513650.html