<b id="sidpw"></b>

<b id="sidpw"></b><tt id="sidpw"><address id="sidpw"></address></tt>
<tt id="sidpw"></tt>

<b id="sidpw"></b>

<b id="sidpw"></b>

自動駕駛多傳感器融合算法工程師(多傳感器融合感知)

自動駕駛 851
今天給各位分享自動駕駛多傳感器融合算法工程師的知識,其中也會對多傳感器融合感知進行解釋,如果能碰巧解決你現在面臨的問題,別忘了關注本站,現在開始吧!本文目錄一覽: 1、感知算法工程師難嘛

今天給各位分享自動駕駛多傳感器融合算法工程師的知識,其中也會對多傳感器融合感知進行解釋,如果能碰巧解決你現在面臨的問題,別忘了關注本站,現在開始吧!

本文目錄一覽:

感知算法工程師難嘛

不難。感知算法工程師是負責自動駕駛相關的感知模塊相關技術攻關,包括,SLAM、多傳感器融合及深度估計算法等。只要好好學習好感知算法工程師的相關知識,掌握全面的技術知識即可。因此是不難的。

自動駕駛多傳感器融合概況

? ? ? ? 自動駕駛是高新科技產業發展和智能出行領域的優勢行業,其中的各項技術發展迅速,取得了眾多關鍵成就。其中感知和定位模塊在自動駕駛系統中起著至關重要的作用,自動駕駛汽車必須首先明確自己在真實世界中的位置,明確車身周圍的眾多障礙物,包括動態障礙物和靜態障礙物。其中動態障礙物包括行人、動物、車輛、其他非機動車等;靜態障礙物包括路障、路標、護欄等,可在高精地圖中予以標注,而且必須依賴地圖更新的頻率。而感知部分則充分利用各項傳感器感知周圍環境,并且實時將數據回傳到工業電腦,通過感知模塊的相應模型和算法獲取障礙物的形態、速度、距離、類別等信息,以便規劃和預測模塊預測障礙物的軌跡,做出相應的駕駛決策。無人駕駛汽車通過車載傳感系統獲取道路環境信息后自動規劃行駛路線并控制車輛的速度及轉向,進而實現車輛在道路上安全可靠地行駛。無人駕駛汽車的關鍵技術主要包括對道路環境的感知、對行駛路徑的規劃、對車輛運動行為的智能決策及對車輛實現自適應運動控制。目前環境感知技術發展的不成熟仍舊是阻礙無人駕駛汽車總體性能提高的主要原因,也是無人駕駛汽車進行大規模產品化的最大障礙。

目前應用于自動駕駛感知模塊的傳感器主要有攝像頭、毫米波雷達、超聲波雷達、激光雷達等。攝像頭有著分辨率高、速度快、傳遞的信息豐富、成本低等優勢,依賴深度學習對復雜數據的強大學習能力能極大提高環境感知的分類能力;毫米波雷達有著反應速度快、操作簡單、無視遮擋等優勢,并且能在各種條件下的提供目標有效的位置和速度;激光雷達有著精確的 3D 感知能力、對光線變化不敏感、信息豐富等優勢,圖像數據無法提供準確的空間信息、毫米波雷達擁有極低的分辨率、激光雷達有著十分昂貴的價格。同時,隨著各傳感器性能的提升,單一傳感器帶來了更多的信息,在不丟失有效信息的情況下,提取特征的難度十分巨大。因此,如何高效的處理多傳感器數據并對其進行高效的融合是一項極具挑戰的任務。

? ? ? ?近年來,深度學習在攝像頭數據上取得了驚人的成就,2D 目標檢測速度和精度都得到了極大的提升,證明了深度學習是種有效的特征提取方法。卷積神經網絡模型的發展,極大地提高了提取自動駕駛攝像頭數據特征的速度和能力。有效利用這些高魯棒性、高質量、高檢測精度的圖像特征,基于視覺的無人駕駛汽車也能在 3D 感知任務中獲得不錯檢測結果。深度學習在處理激光雷達數據上也有著不錯的效果,隨著基于稀疏點云數據的網絡的提出,深度學習在點云特性的學習能力上也漸漸超過了一些傳統方法。然而,采用深度學習進行多傳感器融合的時候,仍然存在著融合低效、數據不匹配以及容易過擬合等問題;將多傳感器融合技術應用到自動駕駛障礙物檢測的過程中也存在著檢測精度不夠、漏檢錯檢和實時處理能力不足的情況。由于自動駕駛汽車等級的提高,傳統的多傳感器目標融合已經無法滿足決策對感知的需求,大量感知的冗余信息也對決策帶來了極大的困難。并且由于多傳感器的原始數據間在信息維度、信息范信息量上有著巨大的差異,有效的融合多傳感器信息變得十分困難。

? ? ? ?多傳感器的數據融合包括多傳感器的空間融合以及時間上的同步。傳感器安裝于汽車車身的不同位置,每個傳感器定義了自己的坐標系,為了獲得被測對象的一致性描述,需將不同的坐標系轉換到統一的坐標系上。點云數據和圖像數據的空間融合模型涉及的坐標系包括世界坐標系、激光雷達坐標系、相機坐標系、圖像坐標系和像素坐標系??臻g融合的主要工作是求取雷達坐標系、攝像頭坐標系、圖像物理坐標系、圖像像素坐標系之間的轉換矩陣。然而由于不同傳感器的工作頻率不同,數據采集無法同步,因此還需要根據工作頻率的關系進行多傳感器時間上的融合,通常做法是將各傳感器數據統一到掃描周期較長的一個傳感器數據上。

? ? ? ?自動駕駛感知模塊信息融合又稱數據融合,也可以稱為傳感器信息融合或多傳感器融合,是一個從單個或多個信息源獲取的數據和信息進行關聯、相關和綜合,以獲得精確位置和身份估計,同時也是信息處理過程不斷自我修正的一個過程,以獲得結果的改善。利用多個傳感器獲取的關于對象和環境更豐富的信息,主要體現在融合算法上。因此,多傳感器系統的核心問題是選擇合適的融合算法。? ?

? ? ? ?多傳感器信息融合可以簡單的劃分為:檢測級、位置級(目標跟蹤級)、屬性級(目標識別級)。對于結構模型,在信息融合的不同層次上有不同的結構模型。檢測級的結構模型有:并行結構、分散結構、串行結構、和樹狀結構。位置級的結構模型有:集中式、分布式、混合式和多級式,主要是通過多個傳感器共同協作來進行狀態估計。屬性級的結構模型有三類:對應決策層、特征層和數據層屬性融合。

? ? ? ?檢測級融合是直接在多傳感器分布檢測系統中檢測判決或信號層上進行的融合,對多個不同傳感器的檢測結果進行綜合,以形成對同一目標更準確的判決,獲得任意單個傳感器所無法達到的檢測效果,是信息融合理論中的一個重要研究內容。位置級融合是直接在傳感器的觀測報告或測量點跡或傳感器的狀態估計上進行的融合,包括時間和空間上的融合,是跟蹤級的融合,屬于中間層次,也是最重要的融合。多傳感器檢測融合系統主要可以分為集中式和分布式兩種方式。集中式融合是先將各個傳感器原始數據直接傳輸到融合中心,然后融合中心對這些所有的數據進行處理,最后生成判決。分布式融合是將各個傳感數據進行預處理后,得到獨立的檢測結果,然后所有傳感器的檢測結果再傳到融合中心進行假設檢驗,生成最終的判決。屬性級融合根據多傳感器融合屬性層級的不同主要分為三類,分別是數據層、特征層和目標(決策)層上的融合,方法主要有基于估計、分類、推理和人工智能的方法等。

? ? ? ?數據層融合是對傳感器采集到的原始數據進行融合處理,融合前不會對原始數據進行預處理,而先在數據上進行融合,處理融合后的數據。然后進行特征提取和判斷決策,是最低層次的融合。每個傳感器只是將其原始數據傳輸到融合模塊,然后融合模塊處理來自所有傳感器的原始數據。然后將融合的原始數據作為輸入提供相應的算法。傳統方法中,Pietzsch 等利用低級測量矢量融合用于組合來自不同傳感器的數據,用于預碰撞應用。隨著深度學習的發展,在數據配準的情況下,也可以利用深度學習對配準后的數據進行學習。此類融合方法要求所融合的各傳感器信息具有非常高的配準精度。這種融合處理方法的優點是提供其它兩種融合層次所不能提供的細節信息,可以通過融合來自不同來源的原始數據在很早的階段對數據進行分類但是所要處理的傳感器數據量大,處理時間長,需要很高的數據帶寬,實時性差,抗干擾能力差,并且在實踐中可能很復雜,且數據融合由于原始數據采用不同格式和不同傳感器類型,要求傳感器是同類的。因此在架構中添加新傳感器需要對融合模塊進行重大更改。

? ? ? ?因此一些研究者開始引入了特征層融合的思想。與直接使用來自不同傳感器的原始數據進行融合不同,特征級融合首先分別對各自數據進行特征提取,然后對提取的特征進行融合處理。特征級融合需要對傳感器采集到的數據作提取特征處理,抽象出特征向量,然后對特征信息進行處理,最后到融合后的特征,用于決策,屬于中間層次的融合。其優點在于有助于提高實時性,降低對通信寬帶的要求。特征級融合提供了更多的目標特征信息,增大了特征空間維數。融合性能有所降低的原因是由于損失了一部分有用信息。特征級融合的實現技術主要有:模板匹配法、聚類算法、神經網絡和支持向量機(Support Vector Machine, SVM)等。大多數基于深度學習的方法也是利用神經網絡提取特征,對不同傳感器提出的特征之間做級聯或者加權,如 RoarNet、AVOD、MV3D、F-PointNet等。特征級融合的主要優點是它能夠減少傳感器數據到融合模塊的帶寬,并且可以通過提升特征的互補性來提升效果。特征級融合保留了低級融合的相同分類和預處理能力,允許相關數據類似地有效地集成到跟蹤算法中。

? ? ? ?目標(決策)層融合架構與低級融合相反。每個傳感器分別進行目標檢測算法,并產生跟蹤目標列表。然后,融合模型將這些目標與一個目標跟蹤序列融合相關聯。對每個傳感器進行預處理、特征提取、識別或判決,最后得到的初步決策進行融合判斷,因此是最高層次的融合。決策級融合可以在同質或異質傳感器中進行融合。決策級融合的優點與不足恰好和數據級相反,目標級融合的主要優勢在于其模塊化和傳感器特定細節的封裝。并且通信量小,有一定的抗干擾能力,處理代價低,選用適當融合算法,可以將影響降到最低;主要缺點:預處理代價高,數據信息處理效果比較依賴于預處理階段的性能。常用的方法有:專家系統方法、模糊集合論、貝葉斯推理、D-S 證據理論等?,F階段大多數目標層融合的目標檢測方法十分低效,不適用于自動駕駛汽車對檢測時間的要求。同時,特征層和數據層的融合也需要更多的考慮各自數據形式。

? ? ? ?目前大多數多傳感器融合研究集中于圖像數據與多線激光雷達,然而,只基于攝像頭的自動駕駛感知系統,缺乏空間信息的維度,無法精確的恢復空間信息的位置。攝像頭易受到光線、探測距離等因素的影響,當檢測遠距離目標的時候,只能給出分辨率極低的信息,甚至人的肉眼無法分辨,導致無法標注或錯誤標注的問題,無法穩定地應對復雜多變的交通環境下車輛檢測任務,無法滿足無人駕駛汽車穩定性的要求。因此,自動駕駛目標檢測需要更多的傳感器。而激光雷達具有探測距離遠、不受光線影響并且能夠準確獲得目標距離信息等優點,能夠彌補攝像頭的缺點。當目標被識別時,可判斷此時檢測框內有無點云,來決定是否修正相應的識別置信度。雷達點云數據與圖像數據的融合不僅能獲得準確的目標的深度信息,還能降低圖像檢測時的漏檢的概率,達到了融合數據以提高檢測效果的目的,通過這種多視圖的編碼方案能夠獲得對稀疏3D點云更有效和緊湊的表達。

? ? ? ?由于視覺圖像獲取較易、處理方法多樣,所以視覺技術是現階段自主車輛研究中的主要獲取信息手段。其中視覺技術主要分為單目視覺和雙目視覺。單目視覺識別技術多采用基于車輛特征的方法,該方法主要利用車輛與背景有差異的特征,如紋理、邊緣和底部陰影等。但這種方法獲取的信息量不足,缺乏深度信息,而且易受外部環境的干擾,諸如光照和陰影等因素。雙目視覺識別技術雖然可以取得較好的效果,但其計算量較大,算法復雜,難以保證車輛識別的實時性。激光雷達能夠獲得場景的距離信息,不易受光照等外部條件的影響,但其獲取的外部信息不充分,易造成誤判。因為圖像具有較好的橫向紋理特征,點云能夠提供可靠的縱向空間特征,故而采用多傳感器融合技術可以克服單一傳感器獲取信息量不足,探測范圍小的缺點。隨著自動駕駛和深度學習技術的發展,多傳感器融合相關技術得到了極大的推動。多傳感器融合技術基本可概括為:對于不同時間和空間維度的多傳感器信息,依據融合準則,對這些信息進行分析,獲得對被測量的目標一致性描述與解釋,進而實現后續的決策和估計,使融合結果比單獨獲取的結果更加豐富與準確。在自動駕駛領域,卡爾曼濾波算法、D-S 證據理論等傳統多傳感器融合算法仍然發揮著十分重要的作用。但隨著深度學習快速發展,端到端的數據融合也成為自動駕駛不可或缺的方法。

? ? ? ?現有的融合方案有些僅用于輔助確認目標的存在性,例如在激光雷達返回有目標的大致區域進行相應的視覺檢測;有些使用了統一框架進行融合,如在基于卡爾曼濾波框架下,對于不同傳感器賦予了不同的協方差,并在任意一個傳感器獲得目標數據后進行序貫更新。這些方案均可以實現多傳感器數據融合,但由于只是將不同傳感器等同看待而進行融合,方法雖然直接但低效,因而效果有較大提升空間。在基于純視覺的 3D 目標估計中,估計的距離屬性極其不穩定,而通過多傳感器的融合,對視覺信息進行修正,極大的提高自動駕駛的目標檢測精度。 在目標層的融合攝像頭和激光雷達信息不能滿足自動駕駛的要求。

參考:

? ? ? ? 廖岳鵬(基于多傳感器的自動駕駛目標檢測)? ? ? ? ? ? ? ???????? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??????? CVPR_2017 :?Multi-view ?3d ?object ?detection ?network ?for ?autonomous driving;

一個自動駕駛工程師眼中的自動駕駛

編者按:本文是百度Apollo一名自動駕駛工程師對自動駕駛的一篇見解文章。文章先講解了自動駕駛的發展意義;然后從我 在那兒 ?周圍有什么?接下來會發生什么?我該怎么做?等方面展開講解自動駕駛技術;最后以極客邦和百度Apollo聯合發布的自動駕駛工程師技能圖為例,說明了如何幫助非專業自動駕駛領域的工程師轉行和進入該領域。

2018年12月5日,Google旗下的Waymo推出自動駕駛首個用于服務乘客的商業叫車服務——Waymo One,該服務在美國鳳凰城及其錢德勒、坦佩、梅薩和吉爾伯特4個郊區24小時運行。乘客只需通過APP呼叫無人車,選定上下車地點,然后通過自動駕駛系統就可以方便地前往任何地方。車上沒有駕駛員,只有一塊HMI(人機交互界面)來告知乘客目前車輛的狀態、周圍情況以及后續路線。

從Google的自動駕駛項目開始再到如今的Waymo,其自動駕駛技術在10年間取得了不小進步。Waymo測試車累計公路行駛距離已達1000萬英里,遍及美國25個城市,還有著100億英里的模擬行駛數據。而這些駕駛數據配合人工智能技術將無人駕駛帶到了我們身邊。

同樣,在北京的海淀公園18年也被改造成了全球首個AI公園,11月1號正式對外開放。在這整個智能化公園中,最引人矚目的就是阿波龍自動駕駛小巴。這款迷你小巴每輛可搭載6-7人,沒有駕駛座也沒有方向盤,等乘客落座系好安全帶,阿波龍就會自動關上車門妥妥地起步。在行駛過程中,拐彎和掉頭之前會主動降速,遇到前方有行人或障礙物,也會主動減速避讓或者停車。

這些都是人類見證 歷史 的偉大時刻,也是邁向未來生活的開始,標志著一個新的時代正在悄然來臨。

普通 汽車 終將退出 歷史 舞臺,可能就在不久的將來, 汽車 即將成為我們可以放心托付自己生命的第一代自主式機器人。在歷經了數十年不斷失敗的嘗試后,借助速度更快的電腦、更可靠的傳感器技術以及基于深度學習的新一代人工智能軟件, 汽車 可以獲得與人類相似的能力,在無法預測的環境中自主安全地駕駛。

為什么我們需要關注自動駕駛? 不僅僅是因為這項具有偉大影響力的技術能夠替代司機提升交通出行的效率和安全性;更重要的是自動駕駛會改變人類的生活方式,讓人們重新享受出行的樂趣。

當前,我們的 汽車 是非智能的,其標準的四個輪子、一個機身和一個發動機的配置近100年來沒有了本質性的改進,而世界上其它產業的根基你都發生著根本性的變化。 而得益于機器人技術和人工智能技術在近期取得的成就,平凡普通的 汽車 也即將進化成自動化移動機器人。 目前, 汽車 的便利在一個世紀中不斷給我們帶來了自由、快捷,同時也帶了新的工作機會和社交機會。商業貿易也因此變得前所未有的方便。

但是,在獲得移動便捷性的同時人們也付出了極高的代價。每年全球交通事故死傷人數近100萬,中國每年傷亡20萬人左右;人類駕駛的 汽車 也帶了城市的交通擁堵和空氣惡化。粗略估計,全球有十億由人類駕駛的 汽車 在陸地上漫游,對 汽車 的依賴已經不可能減少,只會越來越多, 汽車 是我們現代生活不可缺少的一部分。

事實上,解決 汽車 引發系列問題最好的方式就是讓它們變得智能。 當AI接管人類駕駛員時,無人 汽車 將給世界數十億人提供一種更安全、更簡潔甚至是更方便的出行模式。在理想的未來,我們的街道和高速路上會充滿成群的、分布緊密的無人駕駛 汽車 ,想魚群一樣,這些無人駕駛 汽車 會展現出驚人的防沖撞能力,在充滿行人的街道上機智而快速地穿行,在漫長而空曠的高速路上以最經濟的消耗方式靈活???。有些車會攜帶一輛名乘客,有些車完全沒有乘客,因為它們可能要去接送外賣或快遞。而坐在車里的人們,也講有完全自由時間和私密的空間進行任何事情,比如購物、看電影和孩子享受親子時光。

自動駕駛技術從人們開始嘗試到現在其實已經經歷了近50年的 歷史 ,從上世紀70年代就有國外機構和大學開始研究自動駕駛技術。

美國國防高級研究計劃署(DARPA) 在1984年研制出自主地面陸軍戰車項目,可以說是真正自動駕駛技術的開端。當時的技術還比較落后,只能通過固定規劃路線在動態障礙物的情況下達到目的地。到了2004年,DARPA接連舉辦了3屆無人駕駛挑戰賽,可以說真正拉開了現代自動駕駛的序幕,其中CMU(卡內基梅隆大學)、MIT(麻省理工學院)、Stanford(斯坦福大學)等著名高校接連著力研發自動駕駛技術,將自動駕駛的發展推向高潮。

而產業界, 最早在2009年Google成立X事業部開始了自動駕駛技術的研發,緊接著 科技 公司、傳統車企都紛紛加入自動駕駛這場技術競賽中,不甘落后。 中國當然也是其中重要的一員 ,無數技術精英、專家回國參與自動駕駛研發,百度、華為、騰訊、阿里等大公司花重金投入其中,每年招攬大批人才,高校的生源供不應求,薪資也水漲船高。

2013年,美國機動工程師協會(SAE)給出了車輛自動化的標準,分別是L0~L5。不同的Level所實現的自動駕駛能力時逐層增加的。對應的中文翻譯可以參見表格:

目前,自動駕駛技術發展中, 科技 類公司主要尋求從L4級別自動駕駛入手,一步將智能化完成到一個非常高的程度;而大部分傳統車企目前主要是從L3級別入手,從高級輔助駕駛開始逐漸往全自動方向滲透。這兩種發展思路也是充分提現了目前各自的優勢,但大家的終極目標都是希望實現L5的全自動駕駛狀態。

下面,我們以Google的無人車為例,簡單介紹L4級別自動駕駛技術是如何構成的。 Google時最早開始研發自動駕駛的公司,擁有最豐富的技術積累和最強的研發人員。但是無人駕駛系統的復雜性是遠超人們想象的,經過近10年的研究,目前也僅僅是試驗性的推出了無人駕駛體驗服務。無人駕駛系統主要由三部分組成:算法端、車端和云端。其中算法端包括傳感器、感知和決策等智能關鍵步驟的算法;車端包括機器人操作系統、各種計算硬件和車輛底盤硬件等;云端包括數據挖掘、仿真模擬、高精地圖以及深度學習訓練等等。

通過這一套系統我們能夠解決無人車的四個關鍵問題:我在哪?我周圍有什么?接下來會發生什么?我應該怎么做?

定位問題是無人車首先要解決的問題,只有明白自身的位置才能最優的開往目的地。 定位需要依靠一種稱為高精地圖的技術,該技術會將無人車要走的所有靜態環境進行描述,包括車道線、行人斑馬線、標志牌等等。這些靜態信息可以提供交通信號的關鍵信息,也會作為定位方案的錨定物對自身的位置進行校準,比如通過攝像頭看到距離左邊標志牌的距離是2.5m,那么在地圖中知道了標志牌的坐標也就知道了自身車輛的坐標。同時,還會依靠GPS/IMU等全局設備來定位自身位置,不過這可比我們目前智能手機里的GPS精度要求高很多,通過差分融合技術可以達到厘米級精度。

有了定位后,無人車的感知系統將通過傳感器和人工智能算法將周圍的障礙物位置、大小、狀態、類別等標識出來。 目前主流L4級別的傳感器包括GPS/IMU、LIDAR、Camera、Radar等,LIDAR、Camera和Radar都是用于感知周圍障礙物的主要傳感器,分別在不同環境下能夠有不同的優勢。這些信息猶如人類駕駛員的眼睛一樣看到周圍動態環境物體,并將其識別出來,而無人車會利用自己多傳感器和計算效率達到遠超人類的水平,比如精準識別車輛后方任何物體、同時關注左右兩邊的車輛狀態,在黑暗狀態時可以通過激光雷達精準識別。

無人車知道周圍動態物體后,還需要能夠盡可能的預測這些物體的走向,包括行為預測和速度預測。 例如這個車是要左轉還是直行,這輛車會不會闖紅燈等等,匯入車流時速度是多少。這些問題都將決定我們無人車后續應該怎么走,如何避免碰撞發生危險。當然由于人的主觀意志具有很多不確定性,在人類司機和自動駕駛司機混合的道路上,人工智能程序還需要學習人類的行為習慣和約定俗成的禮讓方式,這些都大大增加了無人車的難度。

最后一步就是根據上述信息綜合來選擇一條最適合無人車的道路,如同人類的大腦一樣對車輛最終的行為負責,選擇最合適的方式達到目的地。 這需要考慮行車的體感、安全和快捷等因素,通過最優化算法、搜索算法、蒙特卡洛樹采樣等多種算法來得到未來的駕駛行為,也有通過模仿優秀老司機的駕駛行為等方式來提升駕駛性能等等。

上述四個問題表面上僅僅是車輛端的問題,但是其背后的技術棧是異常龐大復雜的,這些人工智能技術會用到云端的仿真系統、模型訓練系統等等。 要做好其中任何步驟都是學術界長期以來不斷積累而得,也是需要工程能力非常強大的工程師才能實現的高效算法。無人駕駛作為人工智能的一個重大應用方向,不是某一項單一的技術可以實現的,它是一個目前人類技術巔峰的一個整合創新。需要有算法上的創新、系統上的融合以及云平臺的支持。那如此復雜的技術我們應該如何入門,如何進入這個領域?

自動駕駛技術的發展目前最大的瓶頸不是傳感器的昂貴、不是產業發展不完善更不是公司投入不足,而是研發人才的缺乏。 目前我國 汽車 從業人員達到360萬,但其中技術人才不到50萬,占比不到15%。這其中雖然很難明確界定自動駕駛人才有多少,但是可以想見肯定不多。而且從自動駕駛專業人才年薪動輒幾百萬上千萬,就可以知道人才有多緊缺。

我們需要更多的工程師和科學家進入這一領域,將現有的技術進行整合落地。但是如何幫助開發者們進入這一新興領域成了業界非常關注的事情,我們就以極客邦和百度Apollo聯合發布的自動駕駛工程師技能圖為例,來說明如何幫助非專業自動駕駛領域的工程轉行和進入該領域。先來看看這一份技能圖譜:

一個新的技術領域往往建立在當前成熟技術的基礎之上,而自動駕駛需要的技能種類繁多,我們需要首先全面了解整體技術,再選擇感興趣的方向進行深入挖掘。 從這份技能圖譜可以看到包括兩大主要模塊,首先是基礎層, 就是Apollo開發會用到的共性的語言和編程方式; 其次是自動駕駛技術層 ,既包括感知、決策規劃、智能控制、End-to-End等自動駕駛核心能力,也包括硬件,比如GPS、雷達、傳感器、車輛相關的知識和技能。

華為自動駕駛有多牛?激光雷達實現降維打擊,直接吊打特斯拉

2021年4月17日,華為輪值董事長徐直軍的一句話在網上引起眾多網友熱議,徐直軍表示極狐阿爾法S能夠全自動駕駛水平遠超特斯拉。華為憑什么這么說?華為的自動駕駛真的可以對特斯拉實現降維打擊嗎?

2018年世衛組織于發布的報告提到了,全球每年因為交通事故死亡的人數達到135萬。意味著每20多秒就有1個人,因為交通意外失去生命。所以世衛組織希望在2020年前后,全球道路因交通事故造成的死傷人數降低50%,這個難度可不小。

按照我國2019年應急管理部發布的報告,我國交通事故高發時段,主要發生在上下通勤高峰時段。導致交通事故頻發的原因,就是不遵守交規的車輛和行人、電動車、摩托車碰撞導致的交通事故。其次是開賭氣車、霸王車的司機,惡意別車容易出現交通事故。

數據顯示, 2019年我國交通事故 受傷人數為221309人,死亡人數高達56934人 。同時我國每年因為堵車直接經濟損失高達2500億,相當于我國GDP的5-8%,尤其是北京、上海、廣州等一線大城市,每天發生的交通擁堵的相關處理費用達到10億元。因為堵車開不快費油,加上上班族堵在路上沒法創造價值,以及工廠所需原材料送不到造成的損失,造成的間接經濟損失也十分龐大。

在這個檔口上,自動駕駛逐步發展起來,成為解決我國交通問題的重要技術之一。根據谷歌旗下無人駕駛公司Waymo的數據表面,自動駕駛 汽車 技術能夠通過將安全間距縮短, 汽車 通行時間從0.9秒,最短可縮短至0.2秒。紅燈變綠燈時 汽車 都是一輛接一輛的起步,這十分浪費時間,如果 汽車 全部采用自動駕駛,那么基本可以實現一起啟動,這樣可以大幅減少同行時間。

通行時間減少,通行能力自然會大幅上升,通信效率預計會提升45%到130%左右??紤]到新技術的不確定性,全面普及自動駕駛 汽車 技術之后,每條車道有效通行能力,保守估計會提高60%到80%。因為交通便捷,堵車少了,所以開車的人變多了,這樣會讓整個交通總流量增加5%到15%。

不過要做到這個水平,自動駕駛水平至少要達到L3-L4的水平,根據國際自動機工程師學會劃分的智能駕駛標準,L3級別可以達到車輛完成絕大部分駕駛操作。而L4級別可以達到車輛完成所有駕駛操作,特殊路段例外。意味著L3級別的技術,人的手還不能離開方向盤,而L4就可以了。

自動駕駛的研發工作已經幾十年了,如今能做到是因為AI技術和計算機視覺技術的興起,以及各種MEMS傳感器的升級換代,我國已經具備實現自動駕駛的可能。而且因為自動駕駛的產業鏈特別長,涉及人工智能、通信、半導體技術、以及 汽車 技術,涵蓋了我國絕大多數新 科技 的產業鏈,所以自動駕駛的潛在市場規模極為龐大。

隨著我國智能化全產業鏈的技術逐漸成熟,隨著國家政策的推動,眾多資本已經入局,經過數十年的技術發展,目前我國的自動駕駛的商業化落地的節點已經到來。

而此時國內外知名的 科技 公司和傳統 汽車 巨頭,都在積極布局自動駕駛,例如谷歌旗下的Waymo、通用旗下的Cruise、福特的Argo、硅谷初創公司Aurora和德爾福 汽車 旗下的安波福。以及百度、華為、大疆、寶馬、豐田、沃爾沃、小馬智行、特斯拉等眾多 科技 巨頭參與其中,可謂是八仙過海,各顯神通。

不過作為第一個將自動駕駛商業的特斯拉,旗下的新能源 汽車 卻屢屢發生事故,這為自動駕駛發展抹上了一層陰影,特斯拉到底是現有的技術還不成熟?虛假宣傳?

我們要知道自動駕駛的需要的三大系統,分別是用來感知、決策、和執行的。而自動駕駛系統的最終目標是代替人工駕駛,所以需要模擬人的處理方式,通過五官的感知周圍的環境,并將收集到的數據傳輸到大腦;由大腦對收集的信息進行判斷和決策,給予人體信息,身體和四肢會根據大腦給出的指令行動。

所以自動駕駛的“五官”,需要對周邊環境感知、位置感知和速度、壓力等其他信息感知;而自動駕駛的“大腦”主要包括:操作系統、集成電路和AI;自動駕駛的“身體”包括:動力控制、方向控制、以及其他控制。

自動駕駛的“五官”可采用多種傳感器代替,視覺傳感器、雷達傳感器、紅外傳感器是最常用的三類傳感器。最火的自然是視覺傳感器和雷達傳感器。而雷達傳感器又可分為,毫米波雷達、激光雷達、超聲波雷達三種。一般的自動駕駛算法工程師認為,多種傳感器融合是實現自動駕駛的關鍵。

而多傳感器融合的原理是利用計算機技術,將多種傳感器收集的信息和數據進行整合和分析,并綜合評估,作出決策的信息處理過程。而特斯拉選擇純視覺化確實刷新了很多工程師的認知,雖然特斯拉加裝了毫米波雷達,但是毫米波雷達無法對圖像的顏色進行識別,且對橫向出現的目標不敏感,對于較小物體的識別效果不佳,所以缺乏高程信息。

毫米波雷達的缺點,導致它很難分別禁止的物體,例如井蓋和指示牌。同時毫米波雷達因為對顏色不敏感,所以對靜止的白色物體的監測也會大打折扣,如果自動駕駛系統過分信任毫米波雷達的數據,會導致 汽車 通過井蓋或者指示牌下方時,車會自動避險或者剎車,導致駕駛者崩潰。所以特斯拉將視覺感知結果與毫米波雷達結果進行融合時,感知結果如果不一致,特斯拉選擇相信視覺感知而忽略毫米波檢測。

不過視覺感知依賴車載攝像頭,而攝像頭作為光感元件,對周圍環境的光照強度的變化極為敏感,這會對攝像頭圖像的準確性有著非常大的影響,所以天氣和環境的變化,都會對特斯拉的全自動駕駛系統形成制約。為了在視覺感知的水準達到自動駕駛的要求,對系統的算法、算力以及決策力要求很高。

但是特斯拉的自動駕駛模式屢屢發生事故,2016年5月,美國一男子開啟特斯拉Model S后自動駕駛模式,從背后追尾半掛卡車,導致當場死亡。同樣的事兒又發生在2018年初,一男子開啟了特斯拉Model S自動駕駛功能,撞上了消防車。所以眾多事故也間接說明特斯拉的自動駕駛系統存在不小的問題。

和特斯拉自動駕駛的視覺感知不同,華為采用3個激光雷達,配合攝像頭和毫米波雷達等傳感器進行數據融合。并且華為宣傳要將96線車規級高性能激光雷達的成本壓縮到200美元,甚至100美元。

而激光雷達由發射器、接收器、光束操縱器和信息處理系統,四個領域組成。工作原理是利用發射器發射的激光,通過接收器對時間差及相位差進行計算,用激光線數進行三維點云圖的描繪,建立周邊環境的圖像信息。

激光雷達因為線數不同,建立的圖像也有差距。所以要用激光雷達成像技術實現自動駕駛,激光雷達線數至少要達到16線以上,才能3D建模成像。雖然激光雷達成像清晰,綜合性能最佳,但是激光雷達也有一個硬傷,那就是價格不菲。

按照極狐阿爾法S的華為HI自動駕駛系統,配置了3個96線激光雷達和13個攝像頭、以及6個毫米波雷達和1個車頂慣導、1個域控制器。這配置絕對吊打特斯拉,但是華為想要實現1000公里無干預自動駕駛,并且將96線激光雷達的價格,壓倒200美元也是困難重重。

作為激光雷達技術引領者 Velodyne公司,旗下的16線激光雷達售價高達4000美元,128線激光雷達的售價更是超過8萬美元,如此高昂的價格也是特斯拉放棄激光雷達的原因。不過根據數據顯示,隨著自動駕駛技術的普及,從2025年以后,預計全球每年會有600萬輛新車,會搭載激光雷達。屆時激光雷達的市場規模也有望突破50億美元的大關,售價也會大幅下降。

如今我國一家創業企業,速騰聚創已經將125線固態激光雷達的售價降低到1898美元。目前華為HI自動駕駛系統,使用的的96線激光雷達也是由速騰聚創提供,雖然速騰聚創已將激光雷達的價格大幅壓縮,但是單個激光雷達的采購成本,也遠遠超過2百美元。所以美團老總王興公然發微博嘲笑華為,說華為和特斯拉的忽悠能力旗鼓相當。

華為的策略很明確,就是通過壓價賠本賣,實現華為全自動駕駛的普及,并通過量產降低成本,在未來實現盈利。 但是激光雷達的核心MEMS傳感器的元器件,都被歐美國家的電子巨頭壟斷。

涉及光學信息處理系統的主控芯片和模擬芯片市場,基本被美國半導體公司壟斷,尤其是激光雷達的主控芯片90%的市場被美國賽靈思掌控。而華為目前還被美國制裁,想獲得國外零配件基本沒戲。

此時就不得不佩服華為的前瞻性了,因為華為很早就在光電半導體領域發力,在2012年和2013 年分別收購了英國光子集成公司和比利時Caliopa 公司,這兩家公司都是從事硅光技術開發的企業。通過這兩次收購華為成為國內首家掌握硅光子技術的公司。目前華為已經在光電領域成為全球頂尖的公司,但是居安思危,依舊沒有忘記布局。

華為先后投資多家激光雷達MEME傳感器的相關的公司,例如縱慧芯光、南京芯視界等多家公司,還在今年6月入股長光華芯。而長光華芯,是中國唯一激光芯片制造和研發的企業,可以理解為長光華芯的產品都是咱們中國的技術和產品,完全具有自主知識產權,同時還有完整的工藝平臺和生產線,華為采購長光華芯的產品,可以完全不看美國人的臉色。

華為覺得這樣還是不太靠譜,所以華為海思在2019年投資18 億元,在武漢建設華為海思光芯片工廠。值得一提的是,華為選擇在武漢建立光芯片工廠的原因,是因為武漢是中國最大的光谷,類似美國的硅谷,專門從事某一領域的 科技 開發工作。

同時武漢光谷,也是我國最大的光電器件研發基地,其科研能力和技術能力僅次于北、上、深位居中國第四,所以華為就是借這個地方,整合整個光谷企業的資源和技術,把中國集中力量辦大事的習慣發揚一下,一舉突破美國技術封鎖,同時把激光雷達的價格壓下來,做成白菜價,以后讓新能源 汽車 的價格便宜一點。

華為這一路走來確實不容易,不過隨著我國5G不斷加深,我國主推的C-V2X技術,成為車聯網的國際標準。V2X即是一種車用無線通信技術,是實現車輛與萬物互聯的關鍵技術,以后可以通過 汽車 連接手機,甚至家里的電冰箱、電視還有馬路上的所有 汽車 都能實現全面互聯。

V2X成為國際標準,意味著未來各個國家生產的新能源 汽車 ,聯網都要采用這項技術,華為就是做5G的,所以依托C-V2X的技術,可以大幅提升自動駕駛的安全性和便捷性。因為以后的 汽車 之間都會有數據傳輸, 汽車 視野受阻也沒關系,有數據傳輸系統就知道你在哪。

所以華為在自動駕駛領域超越特斯拉并不是難事,但是要徹底打破美國的技術封鎖,還需要一些時日。

老子云:天地所以能長且久者,以其不自生,故能長生。華為一路走來,只有一個目標,扎根在技術之中,不斷創造出新技術,推動人類發展,才能長盛不衰。也期待華為能走得更遠。

元戎啟行CEO周光: 一個被當做科學家培養的工程師卻成為了企業家

題記:

他出道巔峰,求學于無數人的夢想學府——清華大學基礎科學班,“我有很好的數學物理背景,基礎科學班實際上是非常難進去的,學的是數學系的數學,物理系的物理”;他也曾經歷迷茫與低谷,“我很喜歡物理,所以去做高能物理,但是真正做科研研究的時候,我卻是很迷茫的”;如今身為獨角獸公司的掌門人,他希望“匯聚和整合資源,用科技給人們的生活帶來好的改變?!彼堑每怂_斯大學達拉斯分校人工智能博士,也是 元 戎啟行CEO周光。

6月9日,高考正式結束的日子。對于萬千考生而言,這意味著一場大戰的正式結束,同時也代表著另一場更大規模的人生戰役也正在悄悄地拉開帷幕,短暫的中場休息卻在不知不覺中決定了未來戰場的開端……

“是上清華還是去北大?”這是很多人八歲時提出的問題,十年之后還能思考這個問題的人的數量勢必要呈指數級下降,但是一定依然會有少數的頂級學霸需要面臨這一選擇。如果你恰巧是其中一員,你會選擇去清華園嗎?你會選擇經管學院?計算機系?還是那個天才、怪才扎堆的基礎科學班?

看完這位學長的經歷你或許就會作出選擇。

三個頂級劇本在手卻仍要折騰

在中國一個大學生可以成為科學家的概率有多大?是1/175000;在號稱科學家搖籃的中科大,這一概率可以進一步提升至千分之一;而在清華大學基礎科學班,這一概率可以再提升十倍不止。

2021年清華大學數理基礎科學班的招生簡章是這樣描述的:“培養學生既具備有數學的高度抽象思維能力,又具有 現代 物理學的理論素養和實驗技能?!睋Q句話說就是基科大門常打開,智 商 不夠你別來,我們這就是奔著培養科學家去的。

準科學家

作為智商超群的奧賽金牌選手,來自四川樂山的周光進入清華大學基礎科學班顯得順理成章,隨后就開始了按部就班的準科學家生涯。周光說自己“小時候的夢想就是做一名科學家”,而在清華的那些年也正是他距離夢想最近的時候。

回顧基科班的求學經歷,周光認為最寶貴的財富就是積累了足夠深厚的數理基礎知識,并且有幸求教于著名的華人科學家楊振寧院士,讓他意識到一名真正的“大科學家”究竟應該是什么樣子的。

本科畢業后,周光進入清華大學高能物理研究中心工作,向著兒時的夢想又進了一步,可是也就在此時,一路走來頗為順利的周光經歷了人生中第一次較大的迷茫期,“我很喜歡物理,所以才會選擇做高能物理,但真正開始去做研究的時候,我是很迷茫的……”

經過一年的思考,周光做了個“艱難”的決定——赴美求學,到得克薩斯大學達拉斯分校攻讀人工智能博士學位。這意味著他開始逐漸放棄了已經進行了一半的“科學家劇本”,準備在另一張紙上書寫新的篇章。

工程師

其實周光從小就不是一個坐冷板凳“安分人物”,他用“han ds -on(動手型)”來形容自己的特點?!拔液苄〉臅r候就開始非常愛動手,小學的時候就忍不住、控制不住自己把家里的收音機、電視機都拆了?!?/p>

上了中學后,周光開始越玩越大、越玩越深,不僅組裝大型電器設備,還開始正式接觸到了機器人,并一發不可收。全國第三屆青少年電腦機器人大賽第二名、亞太地區青少年電腦機器人大賽第六名等一系列亮眼表現,也成為他日后打開清華大學大門的另一把鑰匙。

清華大學基礎科學班雖然在客觀上培養了大批具有科學家潛質的研究型人才,但是同時也鼓勵學生根據自己的興趣、愛好和志向選擇在不同的學科方向繼續深造,因此周光赴美讀博一路也相對順利。

到了美國的周光沒改其“han ds -on”本色,開始琢磨汽車這個更大的物件。那時他買了一臺故障率不低的二手德系汽車,然而買得起卻修不起,于是他開始調動自己所掌握的物理學知識,每天利用飯后的一個小時,拆完發動機拆變速箱,算是基本搞懂了汽車的內部構造。這也為他日后所從事的事業做了另一方面的準備。

學業方面,周光找回了自己曾經的興趣點——機器人。在人工智能、深度學習爆火的前夜,他身處行業前沿又有著扎實的數理基礎,水到渠成地成為這一領域的中堅力量。

與做基礎科學的研究不同,新興技術勢必要與市場相結合才可能爆發出巨大的能量。于是在博士就讀期間,周光便加入到德州儀器的自主農業機器人系統項目組中,開始考慮技術應用的問題。也是從這時候開始,周光決定畢業后要到全球最好的地方去工作,他也正式接到“工程師劇本”。

為了實現目標,周光決定參加“第二屆DJI大疆創新開發者大賽”,本屆比賽要求參賽團隊必須提出不同尋常且可執行的無人機利用計劃,并要求其商業場景最大化。周光所在的團隊憑借著“電力系統線路巡檢APP”方案在全球200余個團隊中摘得桂冠,獲獎理由為:簡單,低成本,且方便控制。記住這個評價,它在一定程度上反映了周光的做事原則。

2015年,自動駕駛尚處萌芽階段,周光人工智能博士以及大疆開發者大賽冠軍成員的身份,讓他同時吸引到百度以及谷歌母公司Alphabet投資的Waymo這兩家日后行業巨頭的青睞。沒有經過猶豫,他果斷加入了百度硅谷的無人車項目。

回憶當初去百度的原因周光這樣說:“去一個2000人的團隊,你只是一個擰螺絲的,而百度正處在一個0到1的階段,在這里誰有能力誰就上。當時好多之前兩三個月沒解決的問題,我過去一周兩周就解決了?!?/p>

回頭看看就會 發現 ,百度硅谷的無人車項目可謂是群 星 閃 耀 ,貢獻了日后中國自動駕駛界的半壁江山:小馬 智行 CEO彭軍、CTO樓天城,文遠知行CEO韓旭,當然還有元戎啟行CEO周光。

兩年在百度的工作經歷讓周光很懷念也很感激,但是他總覺得自己還能多做一點什么,于是他決定接下第三個劇本——“企業家劇本”。

企業家

從求學到工作,一路以來順風順水的周光卻在創業伊始就栽了大跟頭。

2017年,周光與兩位百度時期的同事聯合創立了自動駕駛公司Roadstar.ai,明星團隊中的明星人物,高學歷、高科技、高潛力,“三高” 元素 讓這家公司誕生之初就被寄予期待,輕輕松松融資上億美元

做企業或許不需要像做技術那樣解決那么多精深的問題,但是只要涉及到人性就會讓問題復雜化。三個血氣方剛、還都沒有經營經驗的技術精英的結合很快就因為經營思路、股權分配等原因遭遇到了考驗。很可惜他們沒能共同度過難關,科技新貴Roadstar.ai在成立不到兩年后就走向了分崩離析,是非曲直,難以論說。

絕不承認這種“非技術因素”失敗的周光在隨后的兩年無奈地開啟了隱身模式,蟄伏期間他依靠著前期培養起來的研發團隊以及極其有限的資金支持,讓元戎啟行開始了艱難的起步。

周光再一次出現在公眾面前又是兩年之后的2021年。去年9月,元戎啟行完成了由阿里巴巴戰略領投的3億美元B輪融資,周光才終于由幕后回到前臺,被正式任命為元戎啟行CEO。

面對著一個比四年前更加激烈的競爭局面,周光這一次將要應對的不僅有幾位進展飛速的前同事,還有自命不凡的造車新勢力,更有英偉達這樣虎視眈眈的跨界巨頭。

三個劇本中準科學家、工程師、企業家的三重經歷也共同塑造了今天的周光,如今再次回顧這三個身份,他這樣總結:

“這三者的思維方式有許多相似的地方,也因職業性質不同,會有不同的側重。在有了科研和工程師的工作經驗后,我希望能夠匯聚和整合資源,用科技給人們的生活帶來好的改變?!?/p>

終局思維與商業思維的融合

對于自己選擇的這條創業之路,周光是信心十足的,而給予他信心的除了一個久經考驗的團隊外還有他一直以來崇信的終局思維。

終局思維

“我有一個非常好的團隊。我們團隊的凝聚力非常高,大家也都經歷過之前的風波,對新的機會是額外的珍惜……我們從出來的第一天就對終局看得比較清楚。同一時間點,別人融到是我們的十倍,但是我們卻能走得更快,就是因為看得準,看得清楚?!?/p>

如果說第一性原理是特斯拉的指導性原則,那么“終局思維”在元戎啟行內部的影響也絲毫不會弱于前者。2021年12月元戎啟行正式發布了名為DeepRoute-Driver2.0的L4級自動駕駛前裝解決方案就是這種思維的體現。這個方案在硬件上由5顆(半)固態激光雷達以及8顆高動態范圍攝像頭組成,最大亮點在于其低于一萬美元的成本,而如今這一數字在量產后將減少到3000美元。

從創業伊始,周光就堅持一步到位走L4級自動駕駛路線,相比立刻就能帶來收益的L2+方案,這勢必是一條更艱難的道路,但是原因也很明確:“L4級自動駕駛是在設計運行范圍內的區域中實現無人駕駛,從自動駕駛終局來看,L4比L2的天花板要更高?!?/p>

在現階段的L2級自動駕駛算法框架上,基本上是基于純視覺的方案來打造的,“沒有激光雷達的數據,難以通過純視覺算法的不斷訓練和提升來實現高級別的自動駕駛”,基于此,周光從技術上判斷,裝備了激光雷達的L4級自動駕駛路線能夠更快抵達自動駕駛終局。

雖然是激光雷達派,但是周光卻并不認為“終局思維”與馬斯克堅持的第一性原理相悖,“從理論上來說純視覺是可以實現完全自動駕駛的,但實現起來會非常慢,主要原因在于今天的純視覺技術還是相對來說比較弱一點?!彼@樣詮釋。

終局思維的形成與周光此前在清華作為準科學家培養與以及作為AI工程師的經歷中所培養的思維方式密切相關,“科學家更需要發散的思維,抽象的思維,既要能大膽猜想,也需要從千絲萬縷的線索中找到關聯,探索規律;而工程師需要聚合思維,從已知的知識中抽絲剝繭,尋求正確答案?!币虼怂伎稼厔莶⑻崆安季殖蔀榱怂鍪碌牧晳T。

當年赴美留學時,人工智能、深度學習尚未有今天的地位,用周光自己的話來形容,自己是在別人還“看不起”這一領域時就埋頭其中,果然就在博士畢業期間迎來了這一領域的爆發。對于自動駕駛行業也是如此,周光在創業之初就已經準確預測了自動駕駛產業鏈在未來幾年的發展趨勢。

周光認為自動駕駛落地離不開車規級的傳感器、車規級芯片以及能夠覆蓋全國范圍的高精度地圖三個重要的外部因素,要保證三要素發揮出作用,需要的是優異的算法和工具鏈作為支撐,這也正是周光一直以來所深耕的領域。

周光表示:“2019年的時候我們就已經預料到了今天的自動駕駛可能采用的傳感器芯片,它的算力、功耗會是怎樣,我們整個技術就是這個來規劃的”。

感知算法方面,周光在2017年創業之初就在大力推進前融合感知方案,如今元戎啟行自研的前融合感知算法可以讓價格便宜的固態、半固態激光雷達最大限度地替代機械式激光雷達;工具鏈方面,元戎啟行的自研的推理引擎技術,可以支持高級別自動駕駛系統在低功耗、低算力的車規級芯片上運行。

去年以來,自動駕駛芯片迎來了一場“算力革命”,英偉達看似一騎絕塵,高通、地平線等企業也是躍躍欲試。對此,周光并沒有表現得十分樂觀,他表示一味追求算力將會導致系統成本上升,自動駕駛系統需要針對自身算法特點合理利用有限的計算資源。

同時周光對中國企業在高端AI芯片領域“卡脖子”風險也早有擔憂,這也是元戎啟行持續推進推理引擎技術研發的原因之一,它不僅可以降低對高算力芯片的依賴,更是應對壟斷型芯片企業“卡脖子”風險的有效手段。

正是憑借著在算法與工具鏈方面所建立起來的信心,讓元戎啟行堅定了一條原則,就是在供應商選擇方面可以不挑最火的,只挑最合適的,這也正是周光敢于說出元戎啟行這套L4級自動駕駛成本未來將會低于3000美元的信心所在。

企業家思維

經歷過Roadstar.ai的失利之后,周光從身心兩方面加快了向一個成熟企業家過渡的進程。他表示相比于做科研與做工程師,企業家需要有系統性、創造性的思維,需要為企業制定前瞻性的戰略與企業文化,讓員工能夠發揮自己的才能,為客戶、為社會創造價值。

基于此,周光為元戎啟行的產品定下了低成本、能量產的目標,他表示一個公司如果長期不盈利也不以盈利為目的,是沒有意義的。

極狐阿爾法S華為HI版,搭載了華為全棧智能汽車方案,其中配備了3顆96線車規級激光雷達、6個毫米波雷達、12個攝像頭、13個超聲波雷達,同時搭載華為MDC810智能駕駛計算平臺,算力達到了400TOPS,僅就數據而言,它不僅達到了華為最高階的自動駕駛輔助的水平,也是現階段量產的自動駕駛解決方案中的最高水平。

雖然就自動駕駛級別而言,阿爾法S華為HI版無法宣稱自己已經達到L4級別,但是就硬件表現而言已經不輸給眾多的L4級自動駕駛解決方案了,其入門的進階版售價為39.79萬元,相比沒有搭載華為自動駕駛方案的最高配車型高出4.7萬元,保守估計該系統售價在3萬元以上。

與華為對比就能發現元戎啟行的這套3000美元的自動駕駛解決方案在成本控制上的力度。周光為這套系統簡單做了一套算數題:激光雷達500美元一顆,將來需要三顆,雷達成本就是1500美元;AI芯片成本500美元一顆,算力平臺如果需要雙芯片,芯片成本就是1000美元,其他費用500美元足夠……

低成本也在加快驅動元戎啟行自動駕駛方案的量產落地?,F階段自動駕駛需要每年收集大量數據,而要實現這么大量數據的積累,量產是唯一的選擇。受限于法律法規和數據量的限制,L4級自動駕駛系統上車之后,還無法立馬實現大規模的自動駕駛,會經歷一段人機共駕的過程。

周光表示在數據積累較多的地方可率先實現自動駕駛,讓消費者不用自己開車或者享受Robotaxi(無人駕駛出租車)服務,而在一些數據積累較少的區域,則會不斷積累道路數據,逐步放開自動駕駛能力。

另一方面,元戎啟行現階段也在積極與車企開展合作,雖然L4級自動駕駛正式落地尚需時日,但是L4級的算法卻可以賦予汽車L2+、L3的能力,“我們的系統上車之后也可以根據車企的需求,兼容L2、L3的智能駕駛?!?/p>

如今,36歲的周光正年富力強,作為一家高科技獨角獸企業的掌門人,他有過科學家、工程師、企業家的三重寶貴經歷,他也曾經歷過創業初期慘痛的失利,這位一個天生就具備選擇自己人生劇本的“hands-on”人士會帶領著元戎啟行書寫怎樣的新故事?未來的自動駕駛又會走向何方?

未完,待續……

(文: 陳彥宇)

@2019

自動駕駛多傳感器融合算法工程師的介紹就聊到這里吧,感謝你花時間閱讀本站內容,更多關于多傳感器融合感知、自動駕駛多傳感器融合算法工程師的信息別忘了在本站進行查找喔。

掃碼二維碼
人妻一区二区三区_国产精品无码毛片久久久_精品无码久久久久久囯产_久久精品亚洲AV日韩AV

<b id="sidpw"></b>

<b id="sidpw"></b><tt id="sidpw"><address id="sidpw"></address></tt>
<tt id="sidpw"></tt>

<b id="sidpw"></b>

<b id="sidpw"></b>