最新消息


自動駕駛什麼時候才會涼涼,估計還要多久?

2020.12.1 新聞中心 12/01每日一新

/ 導讀 /

 

 目前的自動駕駛存在這樣一些問題:對資料要求太高,未來感測器的成本很難被接受,海量地圖資料沒完沒了,同時還存在對系統魯棒性要求很高的安全性問題......這些問題都似乎都難以用目前的AI技術來解決。因此,最近有人在知乎上提問:自動駕駛什麼時候才會涼涼,估計還要多久?引發了熱議。對此,一位元電腦工程師@zhzz用充足的論點詳細論述了他認為自動駕駛目前所面臨的困境,並對這一領域的未來提出了自己的見解與展望,也獲得了很多人的認同。本文內容便是這位元工程師的回答!

1.

 

車聯網等幫助,但是這已經不是一個純視覺的問題了;V2X 5g了,雖然以後,算力會越來越大,越來越便宜可以即時跑更複雜的神經網路模型,但是,這些模型,或者視覺這種手段本身就很有局限性,並且,訓練成本也高,受環境影響大,造成基本不可能達到商用級別的魯棒性;而現實道路的複雜性,和真實世界近乎無窮無盡的變化,是很難利用有限的數學模型(神經網路模型)完全擬合出來的。一個典型的場景,紅綠燈或者交通標緻相對老說是很簡單有限的一些圖形,但是放在香港,東京那種狹窄的充滿花花綠綠看板的街道目前來看也很難準確魯棒的識別出來。當然可以通過一些技術手段,比如鎖定搜索區域,借助game over能問出這種問題說明是個內行人,目前自動駕駛的難點主要在於感知和決策規劃,純視覺的路線基本上

 

另外,決策規劃這一塊,我個人感覺這屬於深水區了,已知的可能只有google開始觸及這個深度。人在駕車的時候,會即時的做出很多決策和預測,很多經驗判斷,做一些潛意識邏輯思考,目前深度學習也好,傳統的方案也好,都沒辦法做到人類思考,推理,類比,聯想的思考能力,舉個簡單的路上一個風吹上去的塑膠袋,或者一大堆飄落的樹葉,雷達,或者視覺看來就是一個障礙物,可能要停車或者做緊急避讓,但是,人就會認識這個東西,直接開過去,或者,目前經常會遇到的,一個小水窪,或者陰影,視覺可能錯誤認為是障礙物,當然,這個時候可能雷達告訴你這裡能通行,這個時候,你的環境融合建模邏輯怎麼寫呢?是更相信雷達,還是視覺?是走是停?當然這也涉及感知的問題,你說我感知都認出來了,我就開過去,這個基本是不切實際的,你的決策規劃模組很難為每一種特殊場景都去寫一個if - else判斷,這樣的情況在現實中幾乎無窮無盡;此外還有,看到路邊的小動物是否減速,聽到警車或者救護車的警笛是否停車避讓,跟渣土車保持距離,甚至車上的乘客有異樣,是自動駕駛到最近的醫院還是派出所等等,難道全部寫成if-else判斷麼?

稍微懂點技術,就能馬上意識到,上面提到的這些問題目前幾乎看不到存在能夠良好的,徹底的解決的工程化方法。

當然你說,以後我們這些都可以依賴大資料啊,我們可以收集非常非常多的駕駛的經驗資料,通過雲端大資料來進行判斷,這相當於我們擁有一個全世界優秀司機的經驗池,自動駕駛汽車完全不必理解這些行為的原因,只需根據場景進行最合理的引用;

實際上這也是目前自動駕駛的一個主要發展方向,就是車路協同,可能做自動駕駛的人是現在全世界最渴望5g,雲計算早點鋪開的一批人,目前純車端智慧遇到的各種瓶頸,我靠智慧的道路去突破,車端智慧的局限靠智慧的城市智慧的道路去彌補,比如,目前到處存在的監控攝像頭,以及可以暢享的未來可能出現的更加多種多樣的佈設在道路,城市的感測器,可以幫車輛提前並且更大範圍,更加準確的感知周圍的環境,通過更加即時的網路將資訊發送到車端;路上車輛相互之間可以自組網,互相告知大家自己位置和行駛狀態,相互協同,前車為後車分享經驗,比如前面可能出現的擁堵,或者避開維修的路段等;資料中心將協調車流,這樣像目前過十字路口,環島等難題也會變得非常簡單;
當然這是一個非常美好的憧憬;那麼你可能也意識到了,要做到這個程度可能比目前最樂觀的自動駕駛落地時間還要久遠的多,所需要的投入也是天量的,畢竟這意味著,我們幾乎要翻新整個城市交通的基礎設施,變更整個城市的設計建造思路;中間可能還會遇到目前難以想像的技術和工程難題,全都需要時間和巨大的投入去解決;

那麼,你說,為什麼要搞這麼複雜?難道不能讓汽車像個街上的小老鼠一樣,鑽來鑽去,見人就躲,見縫插針的行駛麼?我確實很認真的思考過這個問題,因為,目前依靠多種雷達的組合,利用目前已知的技術手段,基本上是可以做到檢測出車輛周圍幾乎所有可能構成危險的障礙物的,那麼,我只用最簡單的邏輯判斷,不管是樹葉,還是行人,車輛全都無腦躲開,利用算力強大的電腦,做到天下武功為快不破,就想街上逃命的小老鼠一樣可以麼?當然其中還涉及很多動力學的建模,並非一定是可以躲開所有障礙物,比如,躲開側面的車,但是由於機動能力的限制可能會撞前面的車或者護欄;

事實上這種設計應該是已經存在了,用來躲避潛在的外來撞擊,以及不去主動撞擊別人。但是無人駕駛上路終究還是需要與其他車輛存在一定的互動,並且這種互動必須是遵循交通規則的,比如,跟車要保持距離和一定速度,轉彎讓直行,比如不能隨意變道,紅綠燈,環島,十字路口通過,都有相應的規則需要遵守;無人駕駛系統的開發者必須去實現這些規則;而具體到規則實現,規則遵守運用,就又回到上面的提出的行為決策的問題了。對應到目前一直的情況,實際上裝配有多個雷射雷達,毫米波雷達的googlebaiduL4無人駕駛方案是基本上沒怎麼聽說有撞車發生的,但是,經常會表現的很傻,尤其是通過路口的時候,經常有體驗者提出反應比較遲鈍,或者過於謹慎;(特斯拉的設計非常激進,不用雷射雷達,只有一個毫米波和一些攝像頭,並且看上去決策規劃模組的駕駛策略設計也比較激進,感覺就是上面提到的小老鼠邏輯,所以總是撞);

所以,總結下來就是感知能力有限,不具有真正意義上的思考和判斷能力;

其實這也是目前所有人工智慧的局限所在,推薦UCLA朱松純教授的一篇很火的

探討目前人工智慧發展現狀的文章給大家參考:https://www.sohu.com/a/227854954_297710

那麼回到題主的問題,無人駕駛什麼時候涼,如果認真看完上面分析的無人駕駛面臨的困境,和朱松純教授的文章,那麼是有可能得到這樣一個結論的:真正能大規模應用的,能讓人完全放開手腳的無人駕駛在目前這個階段很可能並不是一個很好的商業嘗試。

或者說通用無人駕駛技術(注意是排除了限定場景的通用無人駕駛)現階段不適合工程化和商業化;

根據以往的經驗,能夠大規模鋪開,大規模商用的東西,必然能夠較為容易的利用現有的技術和工業基礎,首先進行工程化,然後,通過大規模的工業化生產壓低成本,進而廣泛應用,並且創造利潤。

而能夠工業化生產的前提是,技術本身已經完整的走完了三個準備階段:1.理論突破,就是一件事情,科學家很早的就從理論上預見,並且證明了其可行性。2.技術突破,這一階段基本上相當於在研究機構以非常精英化專業化的團隊突破了技術實現上的壁壘,做出來達到或者接近理論預期的Demo,樣品;3.工程化,主要解決產品設計,方案優化,功能完備,性能提升,良品率,魯棒性,可用性提升,大規模複製的技術準備,成本降低等工程問題。

比如手機,無線通訊相關的理論和嘗試大概100年前就開始了,然後,三元電池大概80年代做出目前的原型,低功耗晶片也基本在90年代就出現了,其他的射頻,組網之類理論和技術儲備也都有好幾十年的歷史。從理論到概念設想到成品經歷了相當漫長的時間。

事實上,目前能看到的工業化,工程化的高科技產品,大型積體電路,OLED,量子點,其對應的理論和技術儲備從實驗室走向實用通常都會經歷20年甚至更長的時間;畢竟企業裡的工程師一般都是踩在科研人員的肩膀上幹活的,首先是科學家,大研究員們給我們把方向指名,把路鋪好了,我們才去做成一件事情。我想在任何其他領域的工程師熟練的運用著成熟的方法進行著產品開發的時候,只有無人駕駛工程師們成天緊緊盯著行業頂會,知名期刊上發表的所謂最新進展在幹活,我甚至看到某大廠招聘無人駕駛相關工程師明確要求要熟知各種state of the art的研究最好發過頂刊,投過頂會,簡直有點可笑。可見都是一幫學生(博士研究生)在做著自娛自樂的開發。也可見目前這一領域還多麼的不成熟。正常來說,工程領域更傾向於成熟穩健經過實踐,經過產品檢驗的方案,而這些在無人駕駛恰恰是不存在的。

最關鍵的,人家的理論從最開始就能清楚的證明,這些產品要達到一個什麼樣的性能,在技術上是一定可以實現的;

而通用無人駕駛,實際上,在第一,第二階段都還沒有完全走完的情況下,就在資本的驅動下直接進入了第三階段;

目前沒有理論證明,我前面提到的問題是能夠完備的解決的,這涉及回答目前的人工智慧,機器學習技術(包括但不限於深度神經網路)所能達到的能力極限;至少孤陋寡聞的我目前還不知道有任何能夠回答能力邊界的研究。或者更明確的,能夠證明通用無人駕駛所需要的智慧程度是在目前已知技術的能力邊界內的。

顯然,當時參加darpa競賽的科研團隊做出的無人駕駛Demo,包括目前又經過這麼多年,這麼多投入各個大大小小的公司做的Demo也沒有能夠從技術上驗證這一可行性。(這裡特指通用無人駕駛所需要的在各種真實世界複雜場景下,全面超過人類的駕駛能力和行為能力。低速跑個園區,跑個倉庫這種限定場景目前很多方案都是可以的);

所以,其實我個人認為,通用無人駕駛最好還是老老實實待在大學或者研究機構裡面,進行基礎性工作的探索,當基本理論,技術,能力積累到一定程度的時候,工程化,商業化落地就是自然而然的事情了。

投資無人駕駛的人,目前其實都是在賭博,都在賭目前欠缺的這一點理論,技術的突破在近期就能突然冒出來,當然存在這種可能性,但是,這種突破也可能姍姍來遲到幾十年之後,這都是未知的。

我個人的觀點,甚至都用不了10年,最多5年之內,如果還是突破不了目前的瓶頸,投資就會大規模撤出這一個領域,也就是樓主說的無人駕駛涼涼的那一天。其實目前這個趨勢已經很明顯了,新的投資已經很少進來。但是,這個技術本身不會消失,還是會繼續存在於各種限定場景的應用(市場規模很小,承受不了大規模投資),同時,退而求其次的方案,無人駕駛技術衍生出的智慧輔助駕駛將獲得極大應用和推廣,用來提升司機的駕駛體驗和行車安全。

而當終於有一天,我們的城市,我們的道路都變得更加智慧,或許期望中的無人駕駛就將到來。

引用一篇比較新的文章支持一下觀點https://zhuanlan.zhihu.com/p/162110742

2.
統一對評論中的一些爭議跟疑點做個解釋:

首先再次說明一下上面的主要觀點,感知能力有限,駕駛行為決策的實現上目前業界主流還是人為的寫各種規則(可以是基於狀態機,基於各種參數判斷,或者一些相對來說比較簡單粗暴的自我調整邏輯,上面簡單用if-else這種比較不嚴謹的說法,大家知道啥意思就行了),其實就是根據測試發現的一些badcasecornercase去用一些trick規避掉,要表達的就是目前這些規則的實現還是程式師告訴車(電腦)去怎麼幹,車本身是不具備智慧的,不具備推理,類比,聯想的能力,本質上這些規則的實現跟實現一個淘寶下單,外賣點餐的業務邏輯沒有太大區別。

你針對某個特定場景,你實現什麼規則車就怎麼開(比較理想,假設沒有其他bug),你不實現或者環境稍微有變化,車就不知道怎麼辦,表現的很傻,或者出現一些危險的行為。這就是業內通常說的泛化能力,目前的現狀是,這種搞法泛化能力很弱,甚至沒有泛化能力,泛化就是去堆砌規則,或者,對於感知,就是重新訓練新的模型。

評論裡面還有提到waymocruise等發佈的視頻看上去很美好,我一點不懷疑這些視頻全都是真的(當然也有廠商的是假的,比如我就明確知道國內某廠某次發佈會上的視頻是花了很多錢找拍電影的人一小段一小段拍完然後剪輯出來的,曾經還有創業公司找風投忽悠的時候,背地裡實際上是讓人拿筆記本遙控的車輛,這個國內國外都有,不是啥秘密)。

業內人士可能會比較容易理解一些,waymocruise等發佈的視頻看上去很美好的原因是他們發佈的視頻裡面那些場景,絕大多數視頻,本身就是相對來說比較理想的測試環境,晴天麗日,道路開闊,車不是很多,行人車輛也都很遵守交通規則,車流,人流都相對穩定,需要通過的路口,岔口視野也比較開闊。

而實際上目前無人駕駛工程師大部分工作都是在想辦法cover一些測試中遇到的badcase,或者是做泛化;也就是常說的無人駕駛做到607080分不是特別難,github上各個業務模組的開源方案簡單改吧改吧,拿來拼都可以拼個五十分甚至六十分能讓你簡單場景下,上路跑起來的方案,做到85分,90分難的上天,如果要商用要求你做到99分以上。

 


上面是曾經遇到的一個case,一個通道兩邊是牆,牆中間開個岔口,有車輛行人進出,在岔口前後的車輛根本看不到岔口裡面,不管是上多少雷達,多好的感測器,就是視野盲區,然後有次正好有車要出來,幸好提前減速,車速不快,不到10km,如果安全司機不接管可能就直接撞了。你說我實現策略,見到路口就減速,確實是這樣,減速了,減速不夠我停車,看清楚再走,好了,這就到上面提到的問題,有報導(網上可以搜到)體驗waymobaidu的有反應車輛過路口,或者車多的時候,無人駕駛就表現的很遲鈍,車少的時候你遲鈍就遲鈍了,你可以想像上下班高峰,你後面跟一屁股車,還有性急加塞的,明明就可以走,你在那裡趴窩不動了,後面車喇叭能按翻天;事實上,有路測經驗的多少都遇到過,剛開始做的不太好的時候,無人駕駛莫名其妙就來個急刹,或者好好的停下來趴著不動了,你不干預就不走,你能回去查日誌,重播包,看看啥情況。你說上面的情況人也處理不好,我可以明確的告訴你,人高明多了,絕大多數情況下人類司機都是很安全順滑(注意順滑這個詞)通過,人類可以聽聲音(waymo 現在已經上道路聲音檢查,貌似報導出來的是檢測警笛之類的,這種比較模糊複雜判斷不知道有沒有),或者看通道有沒有車燈打出來,或者看前面不遠有車通過,就能推理出岔口沒車或者岔口裡的車提前讓了,然後緊跟著開過去,根據經驗估計會不會突然有個美團,餓了麼小電驢竄出來,總之老司機可以根據各種蛛絲馬跡,還有經驗來動態的做出最優的決策。目前已知的手段,你很難通過人工智慧也好,或者別的什麼辦法也好去模擬人類的這種能力。

 
還有與其他車輛,行人的互動,中間可能是有個相互試探的,比如超車,狹窄道路對向錯車,最終形成一致的策略,無人駕駛就很傻,你要超車我就讓,你要錯車我就停,因為這個實現起來最簡單。但是在某些目前還沒測試到的地方,這種可能也會造成一些不可知的問題。比如對向錯車,要是兩個都是無人駕駛,都主動停下讓對方,執行這種簡單的策略,可能兩個車全趴著不動等對方先過,就堵死了。當然肯定可以有辦法設計一個複雜一點的策略避免這種情況。還有高峰期,一堆人,一堆車過十字路口,我就想看這些的視頻,這些waymocruise怎麼都不放啊?當然高峰期,十字路可能也不允許他們去測就是了。

更不用說下大雨,下雪,下霧,路面積水,長隧道,天黑滿大街霓虹燈各種閃。反正沒聽說哪家工程師找刺激(給自己挖坑找加班)去測這些的,但是你商用的話,cover這些是最基本的,因為這些環境人都能開,我印象中很多年前我上學的時候,當時請一個日本老頭給我們講無人駕駛,老頭舉個例子我至今印象深刻,就是他們日本北海道,一到冬天就大雪一片白,連樹都是白的,做視覺的知道一片白就是缺少紋理,目前的視覺手段大概率要吃癟。人也不好開,但是可以開,可以通過起伏,綠化帶之類的判斷車道,可以跟前面的車轍,視覺怎麼搞,燒香求祖師爺顯靈,讓自己辛辛苦苦訓練的交通標誌模型,正正好好的把車轍識別成車道線嗎?當然你說我靠RTK,靠高精地圖,靠鐳射保持定位,OK,先不說RTK某些時候會失敗,鐳射這個問題我們原來也是遇到過的,不考慮成本,不考慮數量什麼都認為非常理想,我們原來夏天采的鐳射地圖,到秋天不好使了,為啥呢?樹葉子秋天都掉了,點雲配不上了,你說你更新快,好的,上面下雪的情況,你前天沒下雪,光禿禿樹枝采的地圖,下一場雪可能也就幾個小時,樹枝掛滿雪了,我估計相當大概率你點雲還是配不上。配不上還好,就怕配歪了,雪地打滑你輪速積分也可能是錯的,配歪了可以把你的kalman濾波也好,sliding window優化也好給拉歪了,用卡方檢測,上聯邦濾波,用各種冗餘核驗可以幹掉絕大部分拉歪的情況。畢竟還有IMU是好使的,如果無遮擋GPS/RTK也是好使的。那麼有沒有可能就是給你拉歪定位到溝裡的情況呢?很有可能,概率問題,這種情況車就很傻,一定是悶頭往溝裡沖,人就不會,人可以根據環境做非常綜合的判斷,這種綜合判斷的能力,目前很難用程式實現。

最後說泛化的問題,無論感知,定位,規控做到目前最頭疼的就是泛化。泛化能力才是人工智慧的深水區,人類的智慧強就強在能推理,歸納,類比,聯想舉一反三。感知,規控的日常各種調參,調參幹嘛呢?就是去適配各種場景,各種badcase,但是缺少泛化能力。常見的一個現象就是費力吧啦的調了一套參數,寫了一個規則把一個badcase覆蓋過去了,場景一小變,又不好使了,甚至,動一個參數這個badcase 混過去了,另外一個曾經已經pass的場景又掛了,跟打地鼠一樣,按住這個洞,另外一個洞又露頭了。

評論區有個貌似做控制出身的大佬說,其實萬變不離其宗,車輛控制就只有那幾個變數,那些個狀態,這句話說的非常對。但是,現實場景是千變萬化的,針對某個具體的場景你需要去調整這些狀態,然後形成一個最優的行為,那麼怎麼讓車輛自己在無人干預的情況下做出這種調整是最難。現在主流還是開發人員去識別這些場景,然後,程式設計教車去怎麼幹,車沒有這個自主的智慧。或者僅僅具有非常非常有限的泛化能力。有提到什麼模糊控制,智慧控制,自我調整之類的,我也不懂,也只是聽說,評論區有控制專業的大佬,可以解釋一下在實際工程中這些高端玩意兒到底有多實用?應用範圍多廣?反正我自己見到的情況目前普遍還是PID為主,加各種針對特定case rule或者少量的自我調整邏輯。其實這就是我上面說的加if-else的意思。

再次注明一下,上面討論的車端實現,文章前面也提到過,評論區也有說明,配合雲端大資料可以為這些問題提供一些解決思路,並且特斯拉,mobileye已經在做這方面的探索,甚至業內有懷疑特斯拉的無人駕駛能力近兩三年突飛猛進就是因為他們有海量的第一手的人類司機實際路況的駕駛資料,方便他們後臺訓練模型或者優化演算法。但是具體怎麼做的,都是各廠的機密不會公開出來的。

3.
重申一下我對「涼涼」這個詞的觀點,不是無人駕駛就消失掉了,不發展了,而是商業化落地受阻,資本大規模退出將會在可預見的較短時期內出現,產業界無人駕駛投資和研發熱潮會冷掉。
我只說我瞭解到的基本情況,做的好的waymomobileye,他們具體怎麼去實現,都是機密,我不可能瞭解到,從公開的資料看即便他們依然在努力突破瓶頸,做的時間最長的Google差不多做10年了吧,依然沒突破,Google有錢,再養10年也能養,也還是為了財報好看把這塊業務單獨剝離出去融資成立了waymo,其他靠風投吃飯,今天搞個大新聞,明天拉個大專案的創業公司呢?注意看我的回答,我不是說這個技術會消失,而是追求短期回報的資本不可能一直耗下去。
有評論要求對5g,以及雲端智慧做補充說明,這裡補充一些觀點:

5G標準很龐大的,有關工業物聯網的那塊標準有個局域的概念,比如50100米範圍內車輛局部組網,這個局域網內延遲很小,就好像你自己家WIFI,假如ipad連你電腦需要經過某個應用廠家資料中心的服務端再回來就很慢,但是局域網內部僅經過WIFI路由器直接互相訪問就很快。這個可以解決需要快速反應的車間互動問題,資料中心那邊延遲大,且不說資料中心處理延遲,就是從基站通過若干個路由器,經歷各個不通網段走到資料中心,然後再返回車端,這段的時延以我粗淺的理解5g跟現在不會有太大區別的。雲端解決大範圍,時效性要求不高的宏觀性問題,以及收集海量資料做某些後處理的形式的分析,優化。比如,局域網內通訊的汽車互相溝通相互間位置,速度,自己局部行駛路徑,雲端調度整個車流的狀態,比較大的區域內,道路感測器節點觀測資訊,通過海量資料分析訓練出更好的駕駛策略下發車端等。

有個問題必須明確:上5g也好,上雲端也好不是為了取代車端智慧,而是簡化車端系統的設計,降低對車端智慧系統實現上各種指標的需求,來幫助突破目前車端智慧無法突破的瓶頸性問題。

如果通過聯網知道其他車輛的狀態是不是相當於多了一個非常可靠的觀測資料來源,並且實際上其他車輛還可以把他們觀測到並且經過處理的周圍環境,周圍其他車輛檢測到的障礙物,道路狀況即時發送給你,是不是相當於單輛車的感知能力成倍增長,很多還在你的盲區之內,比如前車遮擋住的你的視線,或者,經常遇到的,某些漏檢,誤檢,但是其他車輛在它所處的觀測角度能夠更好觀測更準確檢查出來,算上路上其他感測器,比如監控攝像頭,路邊測速儀等,對於做感知的是不是發現突然生活就變得美好許多了。如果車輛資訊互通,超車,過十字路口,對向錯車,提前給周圍車輛發請求告知,然後通過統一的策略協調是不是可以大大簡化規劃控制的設計邏輯,提高安全性和效率,是不是比目前要靠猜測去預測其他車輛的行為安全靠譜?車端你自己去識別,然後設計邏輯回避破損需要維修的道路,或者你之前某處突發交通事故,然而,你前面的車輛正好擋住你視線,它突然急刹車,你要跟著做出反應,先不討論車端怎麼實現,能實現多好,這個問題方車端是不是又困難,又不可靠,如果你之前的車輛給你共用了這些資訊,你只需要最簡單的規避邏輯是不是就可以,你前方車輛的突然行為比如馬路上突然穿出一條狗,它要緊急刹車或者猛打方向盤避讓,通過資料鏈共用給你,你甚至能在它發生可觀測的運動狀態變化之前做出反應,畢竟資料傳輸速度遠快於車輛制動速度。超車,過路口,錯車提前告知周圍車輛獲得確認,是不是比你設計一個無比複雜行為邏輯或者人工智慧模型簡單靠譜的多?再加上雲端能力的加持,是不是整個系統的能力又可以有巨大提升?

當然,正像我上面段落裡說的,整個基礎設施的改造投入巨大,且曠日持久,但是不可否認有些事情一定會去做,並且做成之後就可以實現一定的效果,個人覺得期待基礎設施的更新換代,然後,推動整體交通系統能力的提升,遠比在已經榨不出什麼油水的技術路徑裡抓瞎靠譜得多。

而且通訊端的改造成本攤薄之後真的沒多少錢,5g基站總是要架起來的至少國內已經列入規劃了,這個不需要無人駕駛的人操心,花錢。不給無人駕駛用也是要架的,這是通訊網路改造的錢,天量的,具體到車端,成本非常少,相當於加了個5g上網卡而已,這個通信模組是5g手機裡都有的東西,以後肯定是集成到車載電腦上的,批量生產之後會很便宜。跟現在隨便一個感測器比簡直忽略不計的。當然考慮到交互問題,很多目前的設計思路都要改,然後,由於這些改進對車端智慧複雜度要就的降低從而帶來的研發成本降低也非常顯著。
 
 
4.
主要駁斥一下那些說我技術悲觀主義,充滿挫敗感的評論!

理工屌絲,從小語文不好,可能我的行文,或者表達方式上讓讀者產生了這種想法。

但是,仔細讀過的讀者應該不難得出結論,我的主要觀點和論證都是基於目前的已知事實和客觀的分析得出的。我個人的態度是很客觀,甚至很樂觀的(對於限定場景無人駕駛,智慧輔助駕駛,以及基礎設施升級之後可能帶來的種種新的改變)。
比如,你不能說我不認為我會突然基因突變,明天就能長出一對可以飛的翅膀,就是悲觀主義挫敗感。就算有這種突變,並且我還沒有因為劇烈的基因改變猝死,以細胞分裂的速度,我每天攝取的新物質,還有轉化比看,我也不太可能明天就能長好。這是基於基本事實基本規律得出的。

同樣,你也不能說,孫中山死前說:革命尚未成功,同志還需努力;老毛寫《論持久戰》是悲觀主義,挫敗感。我們知道這反而是革了一輩子命,對形勢有了全面,理性,深刻的認識,徹底想明白了才能得出的結論。一腔熱血小年輕,期望革命速成的想法反而是非常危險,並且多數白白送了人頭。

事實上,根據之前的分析,一個讀者中的專業人士基本上是有一個共識的,突破目前的瓶頸需要需要新的技術出現。已有的路子已經沒有太多油水可榨了。具體來說最好這個突破是更加深度的智慧,更加類似人類的智慧。

通常進行科學探索,工程研發,先觀察現象,總結規律,再運用規律解決問題。一個典型的例子,現在的人工神經網就是受了神經科學領域對神經系統結構和基本工作原理的研究的啟發。

那你現在需要搞高端智慧,推理,聯想,類比等等,更具體的你要基於現在的馮諾依曼架構的電腦去程式設計實現,類比這些能力(先不說可能不可能)。你起碼要大概知道這些到底是怎麼回事兒吧,要基本瞭解它的形成機制,運作原理吧?然而一個事實是,不管認知科學也好,神經科學也好,生物也好,醫學生理學也好,甚至不那麼涉及基礎科學研究的心理學領域也好。目前對這些問題的研究基本上都還停留在一些很表觀的現象上,對深層次的機制上,全都知之甚少。事實上,在這類問題上,任何一項基本的發現都會被整個科學界視為極為重要的突破,一定是會被放到新聞聯播裡面吹的。比如,左右腦分工的研究就被頒發了諾貝爾獎。不說你能搞出或者模擬生物體的這類高端智慧,哪怕你把人類對此類問題的認識向前推進一小步,炸藥獎或者同等份量的科學認可一定是要給你的。所以,我認為,就算有什麼突破,也必然是那幫搞認知,生理,神經等基礎學科的先去突破了。我自始自終都不能理解為啥總有一大幫EECS的碼農能夠有如此狂妄自大的優越感,自己能夠淩駕於所有其他學科之上。還是自己過於無知或者目光狹隘?

再重新回到人工智慧的問題上,哪怕你搞不出更牛逼的技術,更吊的方法去模擬高端智慧。如果能回答我上面的提到的問題,目前深度學習也好,強化學習也好能力邊界在哪裡?或者問題範圍繼續縮小,目前你們口口聲聲的說要實現的L4是否在目前已知技術的能力邊界範圍內,或者再進一步,L4還需要做哪些突破就圓滿了,不用你去給具體解決方案,只把方向指出來?

這個問題無論是理論上,還是工程上都有巨大價值吧。要是能回答出來,多的不說,給評個院士,或者再不濟,各種頂級傑出人才的頭銜要給你一個的吧。自己可以掂量一下上面的問題哪個是自己有希望能在可預見的未來搞定的,要是真的是認識清楚還有這個自信的曠世奇才,幹嘛還窩在小創業公司裡面996搬磚呢?上面關於能力邊界的問題連我這種水準的都能提出來,熱血小年輕,大忽悠老中青們最喜歡拜業內大神,祖師爺,祖師奶奶們會想不到?會看不到這類問題的價值?只不過人家水準足夠看出這類問題的深度和複雜度,大概率是故意很雞賊的回避掉不去碰這個釘子罷了。

所以,很多熱血小年輕的樂觀就是什麼都沒想明白盲目樂觀?

至於不少老中青的盲目樂觀成分可能就比較複雜了。可能有些是真的不懂,沒琢磨透,有些就是忽悠牟利,給無知小年輕們畫大餅,打雞血。比如我曾經的某位領導,某大專家,雖然本人並非相關專業出身,也沒搞過相關領域的工作。至少表現上對無人駕駛落地是極其樂觀,我就非常不確定他表現的如此樂觀,是真的無知,還是純粹為了找上頭把項目,經費,人員忽悠到手,以及給我們下面這些小兵打雞血。因為哪怕從最初的接觸,我就強烈的感覺到這個人無比的雞賊,並且有相當的技術領悟力。畢竟這個社會上能混的好,爬的高的多多少少都有其過人之處。

那些對人工智慧前景,L4中短期內落地前景依然樂觀的朋友們,我個人這裡來說就很簡單。我就盯著每年的諾貝爾獎,圖靈獎,院士增選。你們要真能搞出什麼革命性的東西,這些都少不了你們的。我期待在新聞聯播,各大頭條上看到你們的身影。

對了還要插一段關於這個行業的專家
不用奇怪,只用稍微想一下,10年前全世界都沒幾個人搞的東西,google最早開始搞產業落地,滿打滿算也就10年,怎麼就這麼短短幾年時間突然冒出來這麼多從業人員,甚至大專家呢?專家這麼多,這麼容易混的麼?其實很多都是從其他領域轉過來的,有些是相關領域,有些連相關領域都算不上。對了還有一個有意思的現象,越是成熟的領域,你見到能稱為業界公認專家少說都是領域內深更20年往上的,再不行10年也是有的,人家是真專家,一般情況下,自己領域內沒有搞不定的工程問題。你看搞無人駕駛的,尤其是那些近些年才冒出來的創業公司的專家,半路轉行來的專家,各種不知道什麼會議水過幾篇文章的小年輕博士各個都是專家,連關注這個問題,給過回答和評論的人裡,貌似就有口口聲聲要落地L4,研究L5的行業大佬,業內專家。整個行業連個靠譜的商用解決方案都沒有一個,結果全他媽是專家,請問這是什麼專家?
 
 
5.
評論區有很多評論在問法律問題,倫理問題怎麼解決。出了事故怎麼處理糾紛之類的,是否有這方面的進展。

首先,我對這方面不瞭解,我個人覺得目前無人駕駛應該還遠遠沒進展到這個地步。畢竟現在能商用的東西都沒做出來,目前都還在研發階段,而且似乎都還遠遠不是研發收尾階段。法律,倫理都是以後的事情了,是要做產品工業化量產,商業推廣才需要考慮的事情。

不過我個人認為,這些問題其實都好說的,只要東西做出來,並且有利可圖,自然會有資本爭先恐後的會去推動這些事情的(尤其是那些早期投入巨大研發資金的,馬上就能收穫了,誰不興奮呢?)。

當然肯定會有新老資本的博弈,不會一帆風順,就好像現在國內的高鐵,基建,互聯網,5G領先了,可以去全世界割韭菜了,國內的資本和政治力量就會去推動這個事情。

美國佬,歐洲人看你要賺他的錢,割它的韭菜,就會用各種,倫理,法律,政治上的問題跟你搞事情。比如最近炒的比較火的封禁華為,逼位元組跳動把
tiktoc賣給美國公司之類的。比如以後無人駕駛先被穀歌之類的互聯網公司搞出來了,那麼傳統車廠一定會用你說的問題攻擊無人駕駛,直到做出利益上的妥協,比如讓他們合資入股,搞技術轉讓,或者別的什麼辦法能夠讓大家都能分到肉吃。

哪怕你是先進生產力,代表未來的發展方向,你也不能把那些比你落後的全都一棒子打死,不然作為脆弱的新生事務,被幹死的可能性反而更大。正常的社會發展進程都是在新舊力量的博弈鬥爭中曲折前進的。

總之一個原則就是沒有人能把所有好處占完,不然全世界都會來反對你,這也是人類社會永遠的法則。倫理也好,法律也罷,不過是協調利益衝突的工具。而我個人的觀點最大的利益衝突來源於資本的博弈,具體到終端使用者那裡,反而,不是主要的矛盾了。最終勝利的一方資本力量,一定會定一個對他們有利的規則來解決這個問題的,並且通過強大的宣傳機器來取得全社會對這個規則,或者某些倫理觀念的廣泛認同,至於少數頭鐵的,從來都不足以造成實質性的障礙。
 
 
6.
很多人說法律問題,其實仔細分析,根本不存在所謂的法律問題。只要能做出來,法律問題,理賠什麼的很好解決。

剛上市的頭兩年,車廠,或者無人駕駛運營商為了打消公眾疑慮,必然大幅度補貼,大包大攬,把事故的理賠攬下來。其實這個也花不了太多錢,因為,如果能夠商用,那麼那個時候,無人駕駛的安全性一定是遠好于正常人類司機,甚至你碰瓷都不太容易碰。

分析如下,無人駕駛會上各種攝像頭,感測器,相當於360度的行車記錄儀,包括,行車過程中會把感測器資料,和程式處理過程日誌全部錄下來。那麼出了事故,誰的責任拿資料或者日誌一分析就行了。

大概率是,行人或者人類司機的全責,因為如果程式或者感測器沒有錯誤或者故障,無人駕駛是絕對不會違反交通規則的,因為程式就是按照交規寫的。

如果分析發現是設備故障,或者程式bug造成的問題,那麼,車廠,或者無人駕駛運營商的責任,這種責任判定是非常清楚容易的,出事故相當於幫車廠或者運營商測出來一個bug,他們賠錢也不冤枉。因為,如果不修復可能大量出現,那麼他們賠的更多。

這個相當於你買手機,電視,廠家給你的保修條例,保修期內沒有不正常使用出了問題,一定是要廠家負責維保的。廠家為了少賠錢必須努力把品質,這裡是安全性做高,良品率提高。

其中還有一種情況,就是,一般車廠把車賣給用戶,會有一些使用規範,包括車上本身會設計故障檢測預警。比如開幾萬公里你要去檢修一下,感測器不好使了,自檢系統給個報警,這個車你不要用了要去修,這個時候,如果用戶強行使用出了問題,根據免責協定,車廠不負責,用戶全責也是很清楚的。而且這個也很容易從車上記錄的資料分析出來,責任判定會比較容易。

最後,如果無人駕駛事故率選低於人類司機,那麼,保險公司會非常願意來賺這個錢,並且可以想像,這個保費,是會低於目前的費率的。可以想像,車廠為了推他們的產品,甚至你購買無人駕駛車,送你兩年三年保險這種促銷活動,不過羊毛出在羊身上,這個成本完全可以加在售價裡面,轉移到用戶身上。

車廠可以通過定期維保協議,和保險降低自身的風險,甚至可能還可以通過這種方式賺錢,他們一定是有這個動力來做這件事的。

以上分析是針對L4及以上等級無人駕駛的,其實也適用L3及以下。因為L3及以下的適用條件更加嚴苛,那麼對應的使用者使用協議也會規定的更加嚴格。比如,全神貫注,手不能離開方向盤之類的鬼東西,那麼你用戶違反了,不好意思,哪怕是車輛本身的問題,我廠家不認帳的。打官司也打不贏,畢竟我當時使用者協議說的清清楚楚。這也是為啥L3及以下的自動駕駛不實用的原因,無良廠家拿這些東西吹逼自己有多高科技,有不把風險說清楚,以便自己賣車,簡直就是無恥。

所以,你看分析下來,其實根本不存在所謂的法律問題。