“上路不到1個(gè)小時(shí)就出事!”當(dāng)?shù)貢r(shí)間11月8日上午,由法國公司Navya開發(fā)的不帶方向盤的L4級(jí)小型無人駕駛公交車在美國拉斯維加斯上路試運(yùn)營,但不到1小時(shí),其中一輛就與拖掛卡車發(fā)生碰撞。盡管事故的后果只是無人車的保險(xiǎn)杠受損,并沒有造成人員傷亡,但在Waymo的L4無人車剛批量上路之際,這則“小新聞”依然引人注目,瞬間就引爆全球。
Navya的L4級(jí)無人車安全與否,不光是它自家的事,而且還會(huì)影響到人們對(duì)整個(gè)無人駕駛產(chǎn)業(yè)的信任感。所以,在Navya出事之后,無論是“友商”、公眾,還是媒體,大家都在焦灼地等待對(duì)事故的詳細(xì)調(diào)查結(jié)果出爐。
所幸,拉斯維加斯官方很快就發(fā)布了調(diào)查結(jié)果:無人車不必為此次事故承擔(dān)責(zé)任。
當(dāng)時(shí)的現(xiàn)場情況是,無人駕駛汽車在正常行駛的時(shí)候,一輛送貨卡車突然從小巷中拐出,無人車已經(jīng)探測到前方有卡車并及時(shí)挺住,但卡車卻沒有及時(shí)剎住,結(jié)果就撞在了汽車前部的擋泥板處。拉斯維加斯政府發(fā)文稱:“這起小事故的責(zé)任應(yīng)由卡車司機(jī)承擔(dān)。發(fā)生這類事故不能一味質(zhì)疑無人駕駛技術(shù)的安全性,而要關(guān)注卡車是否也有相關(guān)感測器和系統(tǒng)能防止事故發(fā)生。”
保險(xiǎn)杠受損的無人車在經(jīng)過常規(guī)檢修之后將重新上路,而無人車通勤車的運(yùn)營還會(huì)在拉斯維加斯持續(xù)12個(gè)月。可以說,大家都是虛驚一場。
不止這次,就此前,雖然無人駕駛汽車上路測試的總行駛里程已經(jīng)達(dá)到數(shù)百萬英里,總共發(fā)生的交通事故幾十起,但真正責(zé)任在無人車自身的,卻寥寥無幾。
谷歌:26次事故,25次都不怪它
組織無人駕駛路測的公司幾十家,但向公眾公布測試報(bào)告的并不多。谷歌是路測經(jīng)驗(yàn)最豐富的公司,關(guān)于它的公開資料也最多,因此,我們就先重點(diǎn)看一下谷歌的無人駕駛汽車遇到的“事故”。
自2009年至今,谷歌/Waymo的無人駕駛汽車已經(jīng)上路行駛了超過350萬英里,有數(shù)據(jù)可查的事故共26例,但大絕大部分都是“別人的錯(cuò)”,因谷歌自身的技術(shù)缺陷導(dǎo)致的事故,僅有1起。
我們能公開查到的第一起的跟谷歌無人車有關(guān)的事故發(fā)生在2010年5月。當(dāng)時(shí)的情形是,谷歌的一輛普銳斯自動(dòng)駕駛汽車在人工模式下在山景城 Central Expressway 的紅綠燈前被后面的一輛汽車追尾。事故沒有造成人員受傷,但是谷歌的這輛車受到一些損傷。
其后,谷歌無人車遇到的事故大都是“被追尾”:
2012 年 10 月,普銳斯在自動(dòng)駕駛模式下在 Amphitheatre Parkway 上被另一輛車追尾;
2012 年 12 月,谷歌的一輛雷克薩斯自動(dòng)駕駛汽車在人工模式下在 Highway 101S 上被后方車輛以 20-25 英里每小時(shí)的速度追尾;
2013 年 10 月,雷克薩斯在 Rengstorff Avenue 上慢速行駛接近一個(gè)交叉路口時(shí)被追尾;
2014 年 3 月,雷克薩斯在 Highway 101N 在交通不暢的情況下被后車連環(huán)追尾;
2014 年 7 月,上雷克薩斯在人工模式下等待右轉(zhuǎn)到 Grant Avenue 的時(shí)候被后車碰撞;
2015 年 5 月,雷克薩斯在 Shoreline Boulevard 自動(dòng)駕駛模式下在紅燈前的車輛群中停止,另一輛車從后面撞上后保險(xiǎn)杠以及傳感器......
可以看出,在這些案例中,谷歌的無人車都是遵守秩序地正常行駛,但被后面那些“不守規(guī)矩”的車給追尾了。它不犯,別人硬要犯它,它是無辜的受害者,你總不能讓它承擔(dān)責(zé)任吧?
還有這幾起:
2013 年 3 月,雷克薩斯在 highway 680S 上以 63 英里/小時(shí)速度行駛,右方車輛闖入其所在車道與車身碰撞,雷克薩斯上的工作人員立即采取了人工模式接管;
2015 年 2 月,雷克薩斯在山景城附近在自動(dòng)駕駛模式下交叉路口出與另一車在右后輪出碰撞事故前無人車已經(jīng)開始探測到情況進(jìn)行采取剎車行為;
2015 年 4 月,雷克薩斯在 California Street 自動(dòng)駕駛模式行駛,另一輛車從車右邊超越剮蹭掉了右邊的傳感器和反光鏡;
2016年10月,谷歌的一輛改良版的雷克薩斯SUV無人駕駛汽車在芒廷維尤的菲利克斯大道上向北行駛的過程中與被一輛闖紅燈的人類駕駛的汽車撞到右車門。
這幾起,雖然不是追尾,但都是因?yàn)槠渌囕v違反交通規(guī)則。無人駕駛汽車能做到自己不違反交通規(guī)則,但總不能強(qiáng)求它去制止別的車輛違反交通規(guī)則吧?
從2015年6月份起,谷歌每個(gè)月都會(huì)在網(wǎng)站上公布無人車的“事故報(bào)告”,但自2016年12月起,隨著無人駕駛部門拆分成立waymo,谷歌在網(wǎng)站上刪除了所有關(guān)于無人車的事故報(bào)告;同時(shí),waymo也不再每個(gè)月例行公布事故報(bào)告了,只在事故發(fā)生的時(shí)候向各州機(jī)動(dòng)車輛管理局報(bào)告。
截止2016年11月底,谷歌的無人車共遇到25起事故。此后的一年的數(shù)據(jù),我們暫未查詢到。 據(jù)谷歌方面分析,大部分事故的責(zé)任,要么是在“其他車輛”,要么是“人類駕駛員的不當(dāng)干預(yù)”。由于以往的事故報(bào)告已經(jīng)被刪除,我們并未查到”人類駕駛員的不當(dāng)干預(yù)“是指什么。
在這25起事故中,谷歌承認(rèn)該由自家的無人駕駛車輛負(fù)責(zé)的,僅有1起。那是在2016年的2月14日,谷歌公司一輛“雷克薩斯”牌改裝無人駕駛汽車在芒廷維尤市街頭測試。當(dāng)時(shí),谷歌的無人車發(fā)現(xiàn)前方有排水系統(tǒng)的沙袋,為了避沙袋,它便緊急向左變道,結(jié)果卻意外與一輛公共汽車的右側(cè)方相撞,導(dǎo)致無人駕駛汽車左前翼子板、左前輪和駕駛側(cè)傳感器受損。
谷歌承認(rèn),為了避讓沙袋,無人車沒有注意到后面的公交車。這說明,當(dāng)時(shí)的谷歌無人車在面對(duì)復(fù)雜的交通狀況時(shí)會(huì)出現(xiàn)嚴(yán)重的判斷失誤。
我們能查到的距近最近的一次與Waymo無人車有關(guān)的事故發(fā)生在2017年8月26日上午。當(dāng)時(shí),Waymo的克萊斯勒Pacifica正在帕洛阿爾托市Alma Street的左側(cè)車道上向東行駛(自動(dòng)駕駛模式),突然,前方的另一輛車為了躲避道路中的障礙物而來了個(gè)緊急轉(zhuǎn)向,在這樣的情況下,Waymo的司機(jī)關(guān)閉了自動(dòng)駕駛系統(tǒng),并向右變道。此時(shí),Waymo車輛的后保險(xiǎn)杠與一輛2006款本田奧德賽的前保險(xiǎn)杠相撞,所幸沒有人受傷。
我們沒有看到谷歌對(duì)這次事故責(zé)任的詳細(xì)解釋,但至少從對(duì)現(xiàn)場的報(bào)告來看,這次事故,是在有人類駕駛員干預(yù)的情況下發(fā)生的。這個(gè)時(shí)候,要說得清無人駕駛系統(tǒng)有沒有責(zé)任,是要費(fèi)一番周折的。
需要特別強(qiáng)調(diào)的是,“有人類駕駛員干預(yù)”,并非意味著人類駕駛員要對(duì)這次事故負(fù)責(zé),而是說,在一些緊急情況下,縱使車當(dāng)時(shí)是由人類駕駛員操控,事故仍然是無法避免的。要知道,在2017年11月之前,谷歌的參與測試的無人車,都配備了緊急情況下接管車輛的人類駕駛員,所以,那些事故,都是在人類駕駛員的“眼皮子底下”發(fā)生的。人類駕駛員能看明白卻依然無力阻止的事故,我們當(dāng)然不能把責(zé)任全都賴給機(jī)器了。
再來看看谷歌的“死敵”Uber。 今年3月份,Uber的無人駕駛汽車在亞利桑那州Tempe遭遇事故。但當(dāng)?shù)鼐浇榻B說,事故的原因是“另外一輛汽車并沒有按照規(guī)定讓行”,這次事故的責(zé)任方并非Uber。
特斯拉:本來就不是“無人駕駛”
說到無人駕駛出事,可能很多人會(huì)本能地想到特斯拉。但這里可能存在一些誤區(qū),因?yàn)樘厮估腁utopilot根本就不是“無人駕駛”,而只是個(gè)“高級(jí)輔助駕駛”(ADAS)。
特斯拉的第一起事故是在2016年1月20日,當(dāng)時(shí),一位23歲男青年高雅寧駕駛著自己的特斯拉轎車在京港澳高速河北邯鄲段公路行駛,未能及時(shí)躲避前方的道路清掃車而發(fā)生追尾,事故導(dǎo)致該名車主身亡。
經(jīng)交警認(rèn)定,在這起追尾事故中駕駛特斯拉的司機(jī)高雅寧負(fù)主要責(zé)任。然而時(shí)隔半年之后,高雅寧的家人卻把特斯拉的經(jīng)銷商告上了法庭。以為,高雅寧的家人認(rèn)為,事故發(fā)生時(shí),特斯拉正開啟Autopilot功能,高雅寧過于信任這個(gè)“自動(dòng)駕駛”,因此,注意力并沒有在路面上。在事發(fā)前一分鐘,高雅寧甚至還在唱歌。遺憾的是,Autopilot并沒有識(shí)別出前方的清掃車,也沒有采取剎車和減速措施,然后就毫無防備地撞上了前面的道路清掃車。
雙方打官司后不久,特斯拉在其中國官網(wǎng)上刪除“自動(dòng)駕駛”的字樣,改為“自動(dòng)輔助駕駛”??雌饋碇患恿藘蓚€(gè)字,實(shí)際卻意味著法律責(zé)任的轉(zhuǎn)移:自動(dòng)駕駛,是車/制造商對(duì)事故承擔(dān)責(zé)任;而“自動(dòng)輔助駕駛”的意思卻是,這個(gè)Autopilot只起輔助功能,出了事還得你開車的人自己負(fù)責(zé)。
2016年5月,特斯拉造成了第二宗自動(dòng)駕駛系統(tǒng)致人死亡的車禍。當(dāng)時(shí),一輛開啟Autopilot功能的特斯拉Model S電動(dòng)汽車在途徑十字路口的時(shí)候,撞上了一輛正在左轉(zhuǎn)的卡車,Model S的前擋風(fēng)玻璃撞進(jìn)了卡車底部,駕駛?cè)艘惨虼怂劳觥?nbsp;
事故原因,特斯拉是這樣解釋的:首先,白天強(qiáng)光下,拖車白色側(cè)面會(huì)反光,攝像頭會(huì)短暫“失明”;而且由于拖掛卡車底盤較高,毫米波雷達(dá)無法探測到車身,這種非常少見的情況導(dǎo)致了系統(tǒng)疏忽而沒有啟動(dòng)自動(dòng)剎車;同時(shí),車輛碰撞位置為擋風(fēng)玻璃,正是防撞系統(tǒng)傳感器的安裝位置,使得防撞系統(tǒng)失靈,直接撞上卡車。
這次事故中,Autopilot配置的一個(gè)前置雷達(dá)、一個(gè)前置攝像頭、12 個(gè)遠(yuǎn)程超聲波傳感器,全都沒能看到或者感應(yīng)到前方轉(zhuǎn)彎的 18 輪大貨車。超聲波雷達(dá),和現(xiàn)在普及的倒車?yán)走_(dá)使用相同的技術(shù),探測距離為 5 米,在高速行駛下,即便它感應(yīng)到大貨車,也已經(jīng)太晚——倘若使用激光雷達(dá),探測距離可達(dá)150米,應(yīng)該還來得及。
這次事故,暴露了特斯拉以視覺為主的無人駕駛方案的局限性。但總的來說,特斯拉兩次致命事故的原因,都不在于自動(dòng)駕駛本身,而是因?yàn)樗緳C(jī)過于崇拜和依賴于這個(gè)ADAS而自己的手丟開方向盤,以至于在緊急情況下來不及接管,這才是那幾次特斯拉事故的原因。如果車主定搞清楚ADAS的定位,僅僅用它來“錦上添花”,應(yīng)該會(huì)安全很多。
現(xiàn)階段,無人駕駛作為一項(xiàng)新技術(shù),仍不完美,但至少,與那些動(dòng)輒酒駕、疲勞駕駛、闖紅燈、打電話的人類司機(jī)相比,它已經(jīng)有不少“閃光點(diǎn)”。畢竟,根據(jù)美國交通部的調(diào)研,94%的致命事故都是人為失誤造成的。
當(dāng)然,對(duì)公眾來說,要不要接受無人駕駛汽車,不能全看統(tǒng)計(jì)數(shù)字,這里還有一個(gè)心理問題:很多人的心態(tài)是,我自己開車,出車禍,那我“認(rèn)了”,但如果是無人駕駛汽車出事,我“堅(jiān)決不干”!
我們可能對(duì)機(jī)器過于苛刻。比如,在自己開車的情況下,你所有操作的完全合規(guī),僅僅因?yàn)槎汩W不及,被別人的不守規(guī)矩的車給撞了,這個(gè)時(shí)候,你只會(huì)去找對(duì)方車主算賬,而不會(huì)跟自己算賬,也不會(huì)找你的汽車供應(yīng)商算賬;但如果你是坐了一輛無人駕駛汽車,同樣的場景下,無人駕駛汽車躲閃不及,你的車被別人的車給撞了,你受傷了(甚至只是受到了驚嚇),這個(gè)時(shí)候,你不僅會(huì)找對(duì)方的車算賬,而且還會(huì)跟自己坐的無人車算賬!
在技術(shù)因素和成本因素之外,我們對(duì)機(jī)器的過于苛刻,或許會(huì)成為是無人駕駛商業(yè)化的一個(gè)重要障礙。
根據(jù)經(jīng)濟(jì)學(xué)上的“損失厭惡”原理(與對(duì)一件事情可能給自己帶來利益的興趣相比,人們對(duì)一件事情能給自己帶來的危害更加敏感),要說服人類接受無人駕駛,最重要的,可能并不是強(qiáng)調(diào)無人駕駛能給他們帶來什么好處,而是得先向他們強(qiáng)調(diào)“不接受無人駕駛有什么壞處”——比如,表達(dá)句式應(yīng)該是“人類駕駛會(huì)比無人駕駛導(dǎo)致更多的人死于車禍”,而不是“無人駕駛可以拯救多少生命”。
在這種邏輯下,對(duì)那些一看到有關(guān)無人駕駛汽車的事故就緊張的人,我們或許可以告訴他們:鑒于大多數(shù)事故的責(zé)任方都是“其他道路使用者”,那么,如果是把無人車換成人類駕駛員開的車,照樣可能出事,并且,因?yàn)槿狈Ω鞣N探測功能,可能出事后果會(huì)更嚴(yán)重。
來源:第一電動(dòng)網(wǎng)
作者:建約車評(píng)
本文地址:http://www.healthsupplement-reviews.com/kol/58388
本文由第一電動(dòng)網(wǎng)大牛說作者撰寫,他們?yōu)楸疚牡恼鎸?shí)性和中立性負(fù)責(zé),觀點(diǎn)僅代表個(gè)人,不代表第一電動(dòng)網(wǎng)。本文版權(quán)歸原創(chuàng)作者和第一電動(dòng)網(wǎng)(www.healthsupplement-reviews.com)所有,如需轉(zhuǎn)載需得到雙方授權(quán),同時(shí)務(wù)必注明來源和作者。
歡迎加入第一電動(dòng)網(wǎng)大牛說作者,注冊(cè)會(huì)員登錄后即可在線投稿,請(qǐng)?jiān)跁?huì)員資料留下QQ、手機(jī)、郵箱等聯(lián)系方式,便于我們?cè)诘谝粫r(shí)間與您溝通稿件,如有問題請(qǐng)發(fā)送郵件至 content@d1ev.com。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請(qǐng)聯(lián)系admin#d1ev.com(#替換成@)刪除。