===八一八Mobileye的那點事===

不知道是不是為了博人眼球, geohot在一開場就語出驚人地列出了幾家“搞笑”無人駕駛公司,首當其衝的就是Mobileye。他這樣評價:

Their business model

is to work with regulators to lower the safety ratings of cars that do not

having Mobileye chip in them。

Mobileye

的商業模式,就是透過和立法者同流合汙,來降低沒安裝Mobileye

晶片的汽車的安全評級。

誰要是能透過這麼奇葩的商業模式,能讓一個公司17年不倒閉,反倒有90億美元的市值,那才是人間奇蹟。而事實上,Mobileye自從2001年第一代晶片以來,他們所提供的輔助駕駛、半自動駕駛系統,一直是世界上你能買到的效能最好的產品,沒有之一。特斯拉的無人駕駛,也正是用的Mobileye家的EQ3解決方案,並且這裡有樁軼事,早在2015年底,特斯拉就針對彭博社對geohot的不實報道,寫過一篇打臉文章以正視聽(原文在這裡,有興趣大家可以讀讀:Correction to article: “The First Person to Hack the iPhone Built a Self-Driving Car”)文章最後一句是這麼說的:

Their part is the best

in the world at what it does and that is why we use it。

Mobileye

的視覺晶片是世界上最好的,正因為如此,我們才選擇它。

然後接著語出驚人:

Because Tesla is too

innovative and it scared them (Mobileye)。 After the accidents Mobileye gets

scared。 They want no part of innovation。

因為特斯拉太有創新精神,嚇到Mobileye

了。所以出事之後,他們乾脆舉手投降不再創新了。

這就更是無腦黑了。Tesla和Mobileye的合作是因為合同到期,雙方不再續約。Mobileye

創始人CEO對此曾經表態,Tesla有意無意地讓人把輔助駕駛當成自動駕駛來用,這並不是Mobileye的本意,而且現階段技術確實還做不到自動駕駛,故而不再續約。

但如果從更深層講,這兩家分手其實本來也是必然的。體量如Tesla這樣的公司,必定不可能長期透過跟其他公司,而且是當前世界上擁有獨一無二技術的公司合作,來構建自己的核心競(xue)爭(tou)力。

===999美元自動駕駛帶回家===

在黑完一眾汽車公司之後,隆重地從黑口袋裡掏出他的駕駛模組

Comma one – this is

all you need to drive a car

逗一——自動駕駛,有它就行。

然後淡淡地補了一句

All you need to drive

a Honda car with limited self-driving capabilities

有它就能自動駕駛自帶車道保持系統的本田轎車。

聽到這裡我一口老血險些吐到鍵盤上。作為自動駕駛人工智慧公司的CTO,我早就圍觀過本田的車道保持系統(Lane

Keeping Assist System, LKAS)。簡單來說,這個系統可以在車速45 miles以上,路面環境清晰的時候,自動開車。

——是的,在車道線彎曲的情況下,還會自動轉動方向盤。

——是的,前面車速變慢的時候,還能自動減速。這是本田以及很多其他車廠商自帶的另一項叫做Adaptive Cruise Control的功能。

等等這不已經是geohot描述的自動駕駛嗎?但為什麼本田從來沒有在TechCrunch Disrupt大會上宣稱自己能做自動駕駛?因為畢竟作為負責任的汽車大廠,不能賭乘客身家性命做PR。本田在推這個產品的時候,要求駕駛員必須把手放在方向盤上,而且還老老實實地把自己做不到的場景都列出來了:

1。

車道線看不見的時候,LKAS功能不可用

2。

車速低於45英里的時候,LKAS功能不可用

3。

車道彎曲過大的時候,LKAS功能不可用

4。

打轉向燈的時候,LKAS功能不可用

5。

踩剎車以後,LKAS功能不可用

在這麼多限制條件下,臉皮稍微薄一點的人,自然不會說自己能做自動駕駛。事實上,目前除了採用LiDAR的Google和百度,還沒有任何人聲稱基於機器視覺能夠實現自動駕駛。

畢竟沒實測過geohot的產品(而且也不敢自己測),不知道這五個限制中,他能突破哪幾個。但會上他提到一個細節:

Car’s built-in front

radar… and one front facing camera, which is the same as what Tesla’s using for

autopilot。

(逗一Comma

one

的輸入包括)車內預裝的前向雷達,以及單目前向攝像頭;配置和Tesla

一樣。

這也就是說,逗一無法觀察到車兩側和後方的任何資訊!換句話說,逗一所謂的“自動駕駛”,很可能根本連換道都做不了。更可怕的是,逗一要安裝在後視鏡的位置上,也就是說上車以後再想後悔切手動都來不及。

當然geohot自己後來也承認,逗一的所謂自動駕駛,還是要人看著的:

You have to pay

attention, and you have to be ready to take over it at every moment

(用逗一的時候)你還是得每時每刻留著神,隨時準備切換成手動開車。

那你一開始黑Mobileye黑的那麼起勁兒是幾個意思?! (╯‵□′)╯︵┻━┻

===大資料和深度學習黑科技===

再接下來進入技術環節了。主持人先講fleet learning(透過在同一路線上行駛的歷史資料,增強在這段路上自動駕駛的可靠性)。Geohot不無自豪地點出自己和Mobileye

(Tesla) 的區別:

When we ship this our

fleet learning will be much much fancier than Tesla’s, because we have all the videos

data。 Tesla just has Mobileye feature vector and the radar

等逗一發貨以後,我們的道路學習能力就要位元斯拉不知高到哪裡去了,因為我們有全部原始影片資料,相比之下Tesla

只有Mobileye

(演算法處理過的)特徵向量和雷達資料。

聽到這裡,我已經不知該做出什麼表情了,資料比別人更原始,並不是什麼值得炫耀的事情。反倒會帶來從傳輸到儲存的各種工程問題。而且最關鍵的不是資料有多原始,而是演算法怎麼處理這些資料。

於是接下來,Geohot這樣解釋他的演算法:

It’s deep learning。 It

uses the camera to try to predict what a human would do in this situation。 And

if it predicts something reasonable - it has an internal test for reasonability

– it takes that path。

Our car has only 2000

lines of code, but it also has a 5MB model that was learned using machine

learning, and you can effectively think of the model as code。 This thing was

generated with deep learning, which is encoding all of those edge cases in it。

The reason that we can do it so quickly is because we have the data。 The reason

that we can do it with so few lines of code is because that we have such

advanced machine learning

這就是深度學習。根據攝像頭輸入來預測人類駕駛員會對當前場景做出何種動作。如果演算法預測出來的動作靠譜(內部有額外檢查機制——後文還會提到)就控制汽車執行。

我的模型有2000

行程式碼,還包括一個學出來的5MB

模型檔案。這個模型你可以理解為它就是程式碼。它是深度學習學出來的,可以包括各種極端情況。我們之所以只花幾個月就做出這個系統,是因為我們有大量資料,我們之所以只寫了2000

行程式碼,是因為機器學習非常先進。

講真,我這輩子見過的所有心安理得地跳過全球公認技術難點,聲稱自己解決全部問題的,統統都是民科。

geohot大概是剛讀完《21天實戰Caffe》就以為自己已經領悟了深度學習的真諦。但是,這是錯覺,這不是科學。

接下來主持人又問起這套系統的安全性,Geohot很有信心地答道:

First of all, our car

has very strict torc limits, on how much it can turn the steering wheel, and

how hard one can hit the brakes…

That’s really how we

can guarantee safety

我們對演算法輸出的扭矩有非常嚴格的限制,不至於猛打方向盤或者急剎車。這樣我們才能保證安全。

原來這就是他剛才提的 “額外檢查機制internal

test for reasonability”。要知道,Tesla自動駕駛至今為止撞的那幾次,沒有一次是因為你剎車或者轉向不夠溫柔造成的!

據Geohot稱,他們的訓練資料只有30萬英里,7900小時。拜託,這點資料在自動駕駛圈子裡,提起來就讓人不好意思。要知道,Tesla在首撞之前,可是已經安全行駛了1。3億英里。

Geohot的駕駛解決方案,不論如何改頭換面加上big data, deep

learning等熱詞,其實學術上都早已有定論。近些年人們習慣管這套做法叫

端到端的學習end-to-end learning

,更早些還有

模仿學習

imitation learning

等其他別名。這類方法一大侷限是,只能應付見過的輸入型別。如果在實測的時候,遇到的情況和訓練資料差太遠,超過模型不變性(invariance)所能容忍的上限,這樣的系統分分鐘給跪。

就連卷積網路發明人,Facebook AI Research帶頭人 Yann

LeCun楊立昆教授,都點評過geohot這種拿end-to-end

learning做自動駕駛的思路:

Training a basic

ConvNet to keep you in lane most of the time is fairly simple and straightforward。

The problem is to make it work reliably。

The basic technique of

training a neural net to keep you in lane was Dean Pomerleau at CMU in the late

1980s, a system called ALVINN。 I used imitation learning to train a ConvNet for

a self-driving robot called DAVE back in 2003。 This work motivated the DARPA

LAGR program。

What this guy is doing

may be cool, but it isn‘t particularly innovative。

訓練個基礎版卷積網路做車道線保持沒什麼難度,難點在於可靠性。

早在八十年代,卡耐基梅隴大學的Dean

Pomerleau

就提出了用神經網路做車道線保持的基本模型,叫ALVINN

。2003

年,我用這種以模仿來學習的方式,拿卷及網路搭出過一個自動行駛機器人DAVE

。後來,美國國防部高等研究計劃署的LAGR

專案就是源自這裡。

這哥們兒的工作炫酷有餘,創新不足。

試想一個主要在加州採資料的系統,它有見過幾次下雨下雪?見過開夜車時候迎面來的遠光燈嗎?見過兔子、野豬、麋鹿站在路中間嗎?見過行人、腳踏車橫穿馬路嗎?更不要說讓只有5MB模型檔案的自動駕駛,來見識北京著名地標西直門立交橋了。