你的位置:首頁 > 互連技術(shù) > 正文

自動駕駛,不說技術(shù),說決策邏輯

發(fā)布時間:2023-01-13 責(zé)任編輯:秋天

提到智能車,大家都不會陌生,智能車是一個集環(huán)境感知、規(guī)劃決策、多等級輔助駕駛等功能于一體的綜合系統(tǒng),它集中運用了計算機、現(xiàn)代傳感、信息融合、通訊、人工智能及自動控制等技術(shù),是典型的高新技術(shù)綜合體,自動駕駛便與之有著異曲同工之妙。自動駕駛的核心技術(shù),有的人認為是感知、有的人認為是決策,有的人認為是非技術(shù)的東西,比如能否持續(xù)賺到錢、能否做好前瞻性的管理工作等等。本期文

章就知乎上的幾位答主的觀點,來看自動駕駛技術(shù)的核心。



1673579528691620.jpg


小鵬、特斯拉、蔚來“聰穎“不一


在對Model 3、小鵬P7、蔚來ES6的自動駕駛功能進行測試時,其中一項是對雪糕筒的識別和反饋卻截然不同:

小鵬:直接沖過去。

特斯拉:變道躲避。

蔚來:提示駕駛員接管車輛,自動剎車,同時打開雙閃。


1673579603376360.jpg

1673579620112920.jpg

1673579641675988.jpg


當(dāng)時測試的車輛速度是40-50km/h,理論上來說,以三臺車當(dāng)前的硬件能力,不可能識別不到前方樁桶,最終不同的表現(xiàn)其實代表的就是三臺車不同的決策邏輯,來聽下三臺車的內(nèi)心獨白:


小鵬P7:前方有樁桶?這是施工路段吶,理論上這屬于駕駛員自己接管的范圍,主動介入有可能造成危險,萬一出了事責(zé)任也很難劃分清楚吧?算了,還是維持當(dāng)前操作!

特斯拉:前方有障礙物?哈哈,大顯身手的機會來了!看我的,變道避障!

蔚來:前方有障礙物?可能有危險吧?不行不行,趕緊剎車降速,同步告知駕駛員和周圍車輛,小心!有危險??!


自動駕駛技術(shù)的核心還是決策


自動駕駛技術(shù)的核心實際上還是決策。過去幾年由于視覺感知的不穩(wěn)定,自動駕駛的發(fā)展受到了極大的制約,因此很多人都認為環(huán)境感知才是自動駕駛技術(shù)的核心。但隨著環(huán)境感知的硬件越來越好,底層控制系統(tǒng)越來越精準,智能決策的重要性越來越關(guān)鍵。


如果自動駕駛類比人開車,那么感知就類似于人的眼耳,獲取汽車周邊的環(huán)境信息,而手腳則是偏執(zhí)行層的控制。那么自動駕駛的核心就應(yīng)該更偏向腦部的功能——決策。


1673579745389069.jpg


過去往往都在吐槽Mobileye的攝像頭或者哪家的雷達不行(眼神不太好),譬如車道線無法準確識別,靜止車輛在遠距離識別不到,這個目標(biāo)又丟了,然后再加一堆的邏輯去解決這些參數(shù)異常跳動或者目標(biāo)無法準確識別、丟失等問題。除此之外還需對執(zhí)行層進行調(diào)試,譬如這個EPS死區(qū)有點大,這個車輛制動響應(yīng)不太好(可以理解為手腳不太好使)。但隨著供應(yīng)商以及自研技術(shù)的提升,這樣的場景越來越少了,無車道線場景也可以給出安全行駛的邊界了,大家也有更多的精力去打磨決策相關(guān)的內(nèi)容了,在學(xué)會走路的基礎(chǔ)之上,研究如何的跑的更快,跑的更優(yōu)雅了。


決策邏輯評價體系攸關(guān)重要


能不能

比如,想識別所有的障礙物,但是你能枚舉出所有的障礙物來測試嗎?大千世界,無奇不有,顯然是不能枚舉完的。所以,那些沒測過的障礙物,風(fēng)險怎么評估呢?你敢在產(chǎn)品放行文件上簽字嗎?


仿真能大大提高測試的覆蓋度,那么仿真和實際的偏差,怎么評估呢?仿真能識別了,實際就能嗎?


1673579854437128.jpg


簡單來說就是幾個問題,第一,你知道你能識別什么,但是你知道你不能識別什么嘛?第二,如果你知道不能識別,那你能及時報警讓駕駛員接管嗎?第三,如果沒接管,你能及時執(zhí)行最小風(fēng)險策略嗎?這些需要一套體系來管理和評價。


SOTIF能解決不少問題,但是SOTIF,有幾個公司能完全用起來呢。更別說SOTIF解決不了的問題了。


可不可靠

之前是一些模糊邊界的問題。那么對于已經(jīng)定義清楚的功能,怎么保證可靠性呢?


功能安全里有個安全目標(biāo)的概念,簡單說就是對于影響安全的事件(比如制動失效),有一套體系來保證相關(guān)的功能是可靠的。這里就引出了最常用的提高可靠性的方法---冗余。


冗余在傳統(tǒng)的車輛上很常見,比如扭矩計算,比如制動執(zhí)行機構(gòu)的冗余。但是對于自動駕駛的一些問題,比如基于AI的感知,目前還不好做。


1673579923294648.jpg


因此,沒法直接套用功能安全的體系,來保證已經(jīng)定義并實施的功能,是‘可靠’的。那怎么辦呢?可以結(jié)合數(shù)據(jù)閉環(huán)來debug。但有個問題是,數(shù)據(jù)閉環(huán)是滯后的。就算用測試車,測試車的數(shù)據(jù)在數(shù)量和test case的覆蓋度是比較局限的。OK,所以還要結(jié)合仿真,所以老問題又來了,仿真測試能過,路測就可以嗎?偏差怎么評估呢?


這就是一系列如何評價可靠性的問題。不是對自動駕駛悲觀,只是覺得要正視問題,避免盲目自信。也許以后有更好的體系來支撐自動駕駛的開發(fā),但是歸納起來一句話---都需要時間。但是不希望有車企用激進的方式,像特斯拉那樣用消費者來做測試,加速這個進步。


特別推薦
技術(shù)文章更多>>
技術(shù)白皮書下載更多>>
熱門搜索
?

關(guān)閉

?

關(guān)閉