开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

          開通VIP
          機(jī)器與人類視覺能力的差距(3)

          本文屬于個(gè)人觀點(diǎn),跟本人在職公司的立場無關(guān)。由于最近 GitHub 服務(wù)器在國內(nèi)訪問速度嚴(yán)重變慢,雖然經(jīng)過大幅度壓縮尺寸,文中的圖片仍然可能需要比較長時(shí)間才能加載。這篇文章揭示了 AI 領(lǐng)域重要的謬誤和不實(shí)宣傳,為了阻止愚昧的蔓延,我鼓勵(lì)大家轉(zhuǎn)發(fā)這篇文章和它的后續(xù),轉(zhuǎn)發(fā)時(shí)只需要注明作者和出處就行。

          這是這個(gè)系列文章的第三集,在這一集中,我想講講 AI 領(lǐng)域所謂的“超人類識(shí)別率”是怎么來的,以及由于對(duì)機(jī)器視覺的盲目信任所導(dǎo)致的災(zāi)難性后果。

          “超人類準(zhǔn)確率”的迷霧

          我發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)在測(cè)試數(shù)據(jù)的可靠性,準(zhǔn)確率的計(jì)算方法上,都有嚴(yán)重的問題。

          神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識(shí)別,所謂“準(zhǔn)確率”并不是通過實(shí)際數(shù)據(jù)測(cè)出來的,而是早就存在那里的,專用的測(cè)試數(shù)據(jù)。比如 ImageNet 里面有 120 萬張圖片,是從 Flickr 等照片網(wǎng)站下載過來的。反反復(fù)復(fù)都是那些,所以實(shí)際的準(zhǔn)確率和識(shí)別效果值得懷疑。數(shù)據(jù)全都是網(wǎng)絡(luò)上的照片,但網(wǎng)絡(luò)上數(shù)據(jù)肯定是不全面的,拍照的角度和光線都無法概括現(xiàn)實(shí)的多樣性。而且不管是訓(xùn)練還是測(cè)試的數(shù)據(jù),他們選擇的都是在理想環(huán)境下的照片,沒有考慮各種自然現(xiàn)象:反光,折射,陰影等。

          比如下圖就是圖像識(shí)別常用的 ImageNet 和其它幾個(gè)數(shù)據(jù)集的一小部分。你可以看到它們幾乎全都是光線充足情況下拍的照片,訓(xùn)練和測(cè)試用的都是這樣的照片,所以遇到現(xiàn)實(shí)的場景,光線不充足或者有陰影,準(zhǔn)確率很可能就沒有 paper 上那么高了。

          如此衡量“準(zhǔn)確率”,有點(diǎn)像你做個(gè)編譯器,卻只針對(duì)很小一個(gè) benchmark 進(jìn)行優(yōu)化跑分。一旦遇到實(shí)際的代碼,別人可能就發(fā)現(xiàn)性能不行。但神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要的硬件等條件比較昂貴,一般人可能也很少有機(jī)會(huì)進(jìn)行完整的模型訓(xùn)練和實(shí)際的測(cè)試,所以大家只有任憑業(yè)內(nèi)人士說“超人類準(zhǔn)確率”,卻無法驗(yàn)證它的實(shí)際效果。

          “Top-5 準(zhǔn)確率”的騙局

          不但測(cè)試數(shù)據(jù)的“通用性”值得懷疑,所謂“準(zhǔn)確率”的計(jì)算標(biāo)準(zhǔn)也來的蹊蹺。AI 領(lǐng)域向公眾宣揚(yáng)神經(jīng)網(wǎng)絡(luò)準(zhǔn)確率的時(shí)候,總喜歡暗地里使用所謂“top-5 準(zhǔn)確率”,也就是說每張圖片給 5 次機(jī)會(huì)分類,只要其中一個(gè)對(duì)了就算正確,然后計(jì)算準(zhǔn)確率。依據(jù) top-5 準(zhǔn)確率,他們得出的結(jié)論是,某些神經(jīng)網(wǎng)絡(luò)模型識(shí)別圖像的準(zhǔn)確率已經(jīng)“超越了人類”。

          如果他們提到“top-5”還算好的了,大部分時(shí)候他們只說“準(zhǔn)確率”,而不提“top-5”幾個(gè)字。在跟人比較的時(shí)候,總是說“超越了人類”,而絕口不提“top-5”,不解釋是按照什么標(biāo)準(zhǔn)。我為什么對(duì) top-5 有如此強(qiáng)烈的異議呢?現(xiàn)在我來解釋一下。

          具體一點(diǎn),“top-5”是什么意思呢?也就是說對(duì)于一張圖片,你可以給出 5 個(gè)可能的分類,只要其中一個(gè)對(duì)了就算分類正確。比如圖片上本來是汽車,我看到圖片,說:

          1. “那是蘋果?”

          2. “哦不對(duì),是杯子?”

          3. “還是不對(duì),那是馬?”

          4. “還是不對(duì),所以是手機(jī)?”

          5. “居然還是不對(duì),那我最后猜它是汽車!”

          五次機(jī)會(huì),我說出 5 個(gè)風(fēng)馬不及的詞,其中一個(gè)對(duì)了,所以算我分類正確?;闹嚢??這樣繼續(xù),給很多圖片分類,然后統(tǒng)計(jì)你的“正確率”。

          為什么要給 5 次機(jī)會(huì)呢?ImageNet 比賽(ILSVRC)對(duì)兩種不同的比賽給出了兩種不大一樣的說法。一種說是為了讓機(jī)器可以識(shí)別出圖片上的多個(gè)物體,而不因?yàn)槠渲心硞€(gè)識(shí)別出的物體不是正確標(biāo)簽(ground truth)而被算作錯(cuò)誤。另外一種說是為了避免輸出意義相同的近義詞,卻不能完全匹配標(biāo)簽而被算作錯(cuò)誤。

          兩個(gè)說法的理由不同,但數(shù)學(xué)定義基本是一樣的。總之就是有五次機(jī)會(huì),只要對(duì)了一個(gè)就算你對(duì)。

          看似合理?然而這卻是模糊而錯(cuò)誤的標(biāo)準(zhǔn)。這使得神經(jīng)網(wǎng)絡(luò)可以給出像上面那樣風(fēng)馬不及的 5 個(gè)標(biāo)簽(蘋果,杯子,馬,手機(jī),汽車),其中前四個(gè)都不是圖片上的物體,卻仍然被判為正確。

          你可能覺得我的例子太夸張了,但是準(zhǔn)確率計(jì)算標(biāo)準(zhǔn)不應(yīng)該含有這樣的漏洞。只要標(biāo)準(zhǔn)有漏洞,肯定會(huì)有錯(cuò)誤的情況會(huì)被放過?,F(xiàn)在我們來看一個(gè)實(shí)際點(diǎn)的例子。

          上圖是一個(gè) Coursera 的機(jī)器學(xué)習(xí)課程給出的 top-5 實(shí)際輸出結(jié)果的例子。你可以從中發(fā)現(xiàn),縱然有一些 top-5 輸出標(biāo)簽是近義詞,可是也有很多并不是近義詞,而是根本錯(cuò)誤的標(biāo)簽。比如“算盤”圖片的 top-5 里面包含了computer keyboard(電腦鍵盤)和 accordion(手風(fēng)琴)?!袄匣ⅰ眻D片的 top-5 里面包含了兩種狗的品種名字(boxer,Saint Bernard)。

          另外你還可以看到,測(cè)試圖片是經(jīng)過精心挑選和裁剪的,里面很少有多于一個(gè)物體。所以第一種說法,“可能輸出某個(gè)圖片上存在的物體但卻不是正確答案”,恐怕是很少見的。

          所以 ILSVRC 對(duì)使用 top-5 給出的兩個(gè)理由是站不住腳的。它想要解決的問題并不是那么突出地存在,但是它卻開了一道后門,可能放過很多的錯(cuò)誤情況。比如上面的“算盤”圖片,如果排名第一的不是 abacus,而是 computer keyboard(電腦鍵盤)或者 accordion(手風(fēng)琴),只要 abacus 出現(xiàn)在 top-5 列表里,這個(gè)圖也算識(shí)別正確。所以 top-5 根本就是錯(cuò)誤的標(biāo)準(zhǔn)。

          其實(shí)要解決圖片上有多個(gè)物體的問題,或者輸出是近義詞的問題,都有更好的辦法,而不會(huì)讓錯(cuò)誤的結(jié)果被算成正確的。每一個(gè)學(xué)過基礎(chǔ)數(shù)據(jù)結(jié)構(gòu)和算法的本科生都應(yīng)該能想出更好的解決方案。比如你可以用一個(gè)近義詞詞典,只要輸出的標(biāo)簽和“正確標(biāo)簽”是近義詞就算正確。對(duì)于有多個(gè)物體的圖片,你可以在標(biāo)注時(shí)給它多個(gè)標(biāo)簽,算法給出的標(biāo)簽如果在這個(gè)“正確標(biāo)簽集合”里面就算正確。

          但 ILSVRC 并沒有采用這些解決方案,而是采用了 top-5。這么基礎(chǔ)而重要的問題,AI 業(yè)界的解決方案如此幼稚,卻被全世界研究者廣泛接受。你們不覺得蹊蹺嗎?我覺得他們有自己的目的:top-5 使得神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率顯得很高,只有使用這個(gè)標(biāo)準(zhǔn),神經(jīng)網(wǎng)絡(luò)才會(huì)看起來“超越了人類”。

          Top-5 準(zhǔn)確率總是比 top-1 高很多。高多少呢?比如 ResNet-152 的 top-1 錯(cuò)誤率是 19.38%,而 top-5 錯(cuò)誤率卻只有 4.49%。Top-1 準(zhǔn)確率只能算“勉強(qiáng)能用”,換成 top-5 之后,忽然就可以宣稱“超越人類”了,因?yàn)閾?jù)說人類的 top-5 錯(cuò)誤率大概是 5.1%。

          Top-5 準(zhǔn)確率對(duì)人是不公平的

          可能很多人還沒意識(shí)到,top-5 比較方法對(duì)人是不公平的。圖片上要是人見過的物體,幾乎總是一次就能做對(duì),根本不需要 5 次機(jī)會(huì)。使用“top-5 準(zhǔn)確率”,就像考試的時(shí)候給差等生和優(yōu)等生各自 5 次機(jī)會(huì)來做對(duì)題目。當(dāng)然,這樣你就分不清誰是差等生,誰是優(yōu)等生了。“top-5 準(zhǔn)確率”大大的模糊了好與壞之間的界線,最后看起來都差不多了,甚至差等生顯得比優(yōu)等生還要好。

          具體一點(diǎn)。假設(shè)一個(gè)人識(shí)別那些圖片的時(shí)候,他的 top-5 錯(cuò)誤率是 5.1% (就像他們給出的數(shù)字那樣),那么他的 top-1 錯(cuò)誤率大概也是 5.1%。因?yàn)槿艘且淮螜C(jī)會(huì)做不對(duì),那他可能根本就沒見過圖片上的物體。如果他一次做不對(duì),你給他 5 次機(jī)會(huì),他也做不對(duì),因?yàn)樗揪筒恢滥菛|西叫什么名字。

          現(xiàn)在某個(gè)神經(jīng)網(wǎng)絡(luò)(ResNet-152)的 top-5 錯(cuò)誤率是 4.49%,它的 top-1 錯(cuò)誤率是 19.38%。你卻只根據(jù) top-5 得出結(jié)論,說神經(jīng)網(wǎng)絡(luò)超越了人類。是不是很荒謬?

          退一萬步講,就算你可以用 top-5,像這種 4.49% 與 5.1% 的差別,只相差 0.61%,也應(yīng)該是忽略不計(jì)的。因?yàn)閷?shí)驗(yàn)都是有誤差,有隨機(jī)性的,根據(jù)測(cè)試數(shù)據(jù)的不同也有差異,像這樣的實(shí)驗(yàn),1% 以內(nèi)的差別根本不能說明問題。如果你仔細(xì)觀察各個(gè)文獻(xiàn)列出來識(shí)別率,就會(huì)發(fā)現(xiàn)它們列出的數(shù)字都不大一樣。同樣的模型,準(zhǔn)確率差距可以有 3% 以上。但他們拿神經(jīng)網(wǎng)絡(luò)跟人比,卻總是拿神經(jīng)網(wǎng)絡(luò)最好的那個(gè)數(shù),跟人死扣那百分之零點(diǎn)幾的“優(yōu)勢(shì)”,然后歡天喜地宣稱已經(jīng)“超人類”了。

          而且他們真的拿人做過公平的實(shí)驗(yàn)嗎?為什么從來沒有發(fā)布過“神經(jīng)網(wǎng)絡(luò) vs 人類 top-1 對(duì)比結(jié)果”呢?5.1% 的“人類 top-5 準(zhǔn)確率”數(shù)字是哪里來的呢?哪些人參加了這個(gè)測(cè)試,他們都是什么人?我唯一看到對(duì)人類表現(xiàn)的描述,是在 Andrej Karpathy 的主頁上。他拿 ImageNet 測(cè)試了自己的識(shí)別準(zhǔn)確率,發(fā)現(xiàn)好多東西根本沒見過,不認(rèn)識(shí),所以他又看 ImageNet 的圖片“訓(xùn)練”自己,再次進(jìn)行測(cè)試,結(jié)果準(zhǔn)確率大大提高。

          就那么一個(gè)人得出的“準(zhǔn)確率”,就能代表全人類嗎?而且你們知道 Andrej Karpathy 是誰吧。他是李飛飛的學(xué)生,目前是 Tesla 的 AI 主管,而李飛飛是 ImageNet 的發(fā)起者和創(chuàng)造者。讓一個(gè)“內(nèi)幕人士”拿自己來測(cè)試,這不像是公正和科學(xué)的實(shí)驗(yàn)方法。你見過有醫(yī)學(xué)家,心理學(xué)家拿自己做個(gè)實(shí)驗(yàn),就發(fā)表結(jié)果的嗎?第一,人數(shù)太少,至少應(yīng)該有幾十個(gè)智商正常的人來做這個(gè),然后數(shù)據(jù)平均一下吧?第二,這個(gè)人是個(gè)內(nèi)幕人士,他的表現(xiàn)恐怕不具有客觀性。

          別誤會(huì)了,我并不否認(rèn) Andrej Karpathy 是個(gè)很聰明,說話挺耿直的人。我很欣賞他講的斯坦福 cs231n 課程,通過他的講述我第一次明白了神經(jīng)網(wǎng)絡(luò)到底是什么,明白了 back-propagation 到底如何工作。我也感謝李飛飛準(zhǔn)備了這門課,并且把它無私地放在網(wǎng)上。但是這么大一個(gè)領(lǐng)域,這么多人,要提出“超越了人類視覺”這么大一個(gè)口號(hào),居然只有研究者自己一個(gè)人挺身而出做了實(shí)驗(yàn),你不覺得這有點(diǎn)不負(fù)責(zé)任嗎?

          AI 領(lǐng)域?qū)ι窠?jīng)網(wǎng)絡(luò)訓(xùn)練進(jìn)行各種優(yōu)化,甚至專門針對(duì) top-5 進(jìn)行優(yōu)化,把機(jī)器的每一點(diǎn)性能每一點(diǎn)精度都想榨干了去,對(duì)于如何讓人準(zhǔn)確顯示自己的識(shí)別能力,卻漫不經(jīng)心,沒有組織過可靠的實(shí)驗(yàn),準(zhǔn)確率數(shù)字都不知道是怎么來的。對(duì)比一下生物,神經(jīng)科學(xué),醫(yī)學(xué),這些領(lǐng)域是如何拿人做實(shí)驗(yàn),如何向大家匯報(bào)結(jié)果,AI 領(lǐng)域的做法像是科學(xué)的嗎?

          這就是“AI 圖像識(shí)別超越人類”這種說法來的來源。AI 業(yè)界所謂“超人類的識(shí)別率”,“90+% 的準(zhǔn)確率”,全都是用“top-5 準(zhǔn)確率”為標(biāo)準(zhǔn)的,而且用來比較的人類識(shí)別率的數(shù)字沒有可靠的來源。等你用“top-1 準(zhǔn)確率”或者更加公平的標(biāo)準(zhǔn),使用客觀公正抽選的人類實(shí)驗(yàn)者的時(shí)候,恐怕就會(huì)發(fā)現(xiàn)機(jī)器的準(zhǔn)確率遠(yuǎn)遠(yuǎn)不如人類。

          尷尬的 top-1 準(zhǔn)確率

          我們來看看 top-1 準(zhǔn)確率吧。業(yè)界最先進(jìn)的模型之一 ResNet-152 的 top-1 錯(cuò)誤率是 19.38%。2017 年的 ImageNet 分類冠軍 SENet-154,top-1 錯(cuò)誤率是 18.68%。當(dāng)然這也沒有考慮過任何實(shí)際的光線,陰影和扭曲問題,只是拿標(biāo)準(zhǔn)的,理想情況的 ImageNet “測(cè)試圖片”來進(jìn)行。遇到實(shí)際的情況,準(zhǔn)確率肯定會(huì)更低。

          神經(jīng)網(wǎng)絡(luò)要想提高 top-1 準(zhǔn)確率已經(jīng)非常困難了,都在 80% 左右徘徊。有些算法工程師告訴我,識(shí)別率好像已經(jīng)到了瓶頸,擴(kuò)大模型的規(guī)模才能提高一點(diǎn)點(diǎn)。可是更大的模型具有更多的參數(shù),也就需要更大規(guī)模的計(jì)算能力來訓(xùn)練。比如 SENet-154 尺寸是 ResNet-152 的 1.7 倍,ResNet-152 尺寸又是 ResNet-50 的 2.4 倍,top-1 準(zhǔn)確率才提高一點(diǎn)點(diǎn)。

          我還有一個(gè)有趣的發(fā)現(xiàn)。如果你算一下 ResNet-50 和 ResNet-152 的差距,就會(huì)發(fā)現(xiàn) ResNet-152 雖然模型大小是 ResNet-50 的 2.4 倍,它的 top-1 錯(cuò)誤率絕對(duì)值卻只降低了 1.03%。從 22.37% 降低到 21.34%,相對(duì)降低了 (22.37-21.24)/22.37 = 4.6%,很少。可是如果你看它的 top-5 錯(cuò)誤率,就會(huì)覺得它好了不少,因?yàn)樗鼜?6.36% 降低到了 5.54%,雖然絕對(duì)值只少了 0.82%,比 top-1 錯(cuò)誤率的改進(jìn)還小,可是相對(duì)值卻降低了 (6.36-5.54)/6.36 = 12.9%,就顯得改進(jìn)了挺多。

          這也許就是為什么 AI 業(yè)界用 top-5 的第二個(gè)原因。因?yàn)樗腻e(cuò)誤率基數(shù)很小,所以你減小一點(diǎn)點(diǎn),相對(duì)的“改進(jìn)”就顯得很多了。然后你看歷年對(duì) top-5 的改進(jìn),就覺得神經(jīng)網(wǎng)絡(luò)識(shí)別率取得了長足的進(jìn)步!

          而如果你看 top-1 準(zhǔn)確率,就會(huì)覺得幾乎沒有變化。模型雖然大了幾倍,計(jì)算量大了那么多,top-1 準(zhǔn)確率卻幾乎沒有變。所以神經(jīng)網(wǎng)絡(luò)的 top-1 準(zhǔn)確率似乎確實(shí)到了一個(gè)瓶頸,如果沒有本質(zhì)的突破,恐怕再大的模型也難以超越人類。

          AI 業(yè)界的誠信問題和自動(dòng)駕駛的鬧劇

          準(zhǔn)確率不夠高,不如人類其實(shí)問題不大,只要你承認(rèn)它的局限性,把它用到能用的地方就行了??墒亲顕?yán)重的問題是人的誠信,AI 人士總是夸大圖像識(shí)別的效果,把它推向超出自己能力的應(yīng)用。

          AI 業(yè)界從來沒有向公眾說清楚他們所謂的“超人類識(shí)別率”是基于什么標(biāo)準(zhǔn),反而在各種媒體宣稱“AI 已經(jīng)超越了人類視覺”。這完全是在欺騙和誤導(dǎo)公眾。上面 Geoffrey Hinton 的采訪視頻中,主持人也提到“神經(jīng)網(wǎng)絡(luò)視覺超越了人類”,這位深度學(xué)習(xí)的先驅(qū)者對(duì)此沒有任何說明,而是欣然接受,繼續(xù)自豪地夸夸其談。

          你可以給自動(dòng)駕駛車 5 次機(jī)會(huì)來判斷前面出現(xiàn)的是什么物體嗎?你有幾條命可以給它試驗(yàn)?zāi)兀縏esla 的 Autopilot 系統(tǒng)可能 top-5 正確率很高吧:“那是個(gè)白板…… 哦不對(duì),那是輛卡車!” “那是塊面包…… 哦不對(duì),那是高速公路的隔離帶!”

          我不是開玩笑,你點(diǎn)擊上面的“卡車”和“隔離帶”兩個(gè)鏈接,它們指向的是 Tesla Autopilot 引起的兩次致命車禍。第一次車禍,Autopilot 把卡車識(shí)別為白板,直接從側(cè)面撞上去,導(dǎo)致車主立即死亡。另一次,它開出車道,沒能識(shí)別出高速公路中間的隔離帶,完全沒有減速,反而加速撞上去,導(dǎo)致車主死亡,并且著火爆炸。

          神經(jīng)網(wǎng)絡(luò)能把卡車識(shí)別為白板還算“top-5 分類正確”,Autopilot 根本沒有視覺理解能力,這就是為什么會(huì)引起這樣可怕的事故。

          你可以在這里看到一個(gè) Autopilot 導(dǎo)致的事故列表

          出了挺多人命,可是“自動(dòng)駕駛”的研究仍然在混沌中進(jìn)行。2018 年 3 月,Uber 的自動(dòng)駕駛車在亞利桑那州撞死一名推自行車過馬路的女性。事故發(fā)生時(shí)的車載錄像已經(jīng)被公布到了網(wǎng)上。

          報(bào)告顯示,Uber 的自動(dòng)駕駛系統(tǒng)在出事前 6 秒鐘檢測(cè)到了這位女士,起初把她分類為“不明物體”,然后分類為“汽車”,最后分類為“自行車”,完全沒有剎車,以每小時(shí) 40 英里的速度直接撞了上去…… 【新聞鏈接

          在此之前,Uber 被加州政府吊銷了自動(dòng)駕駛實(shí)驗(yàn)執(zhí)照,后來他們轉(zhuǎn)向了亞利桑那州,因?yàn)閬喞D侵蓍L熱情地給放寬政策,“擁抱高科技創(chuàng)新”。結(jié)果呢,搞出人命來了。美國人看到 Uber 自動(dòng)車撞死人,都在評(píng)論說,要實(shí)驗(yàn)自動(dòng)駕駛車就去亞利桑那州吧,因?yàn)槟抢锏娜嗣恢靛X,撞死不用負(fù)責(zé)!

          據(jù) 2018 年 12 月消息,Uber 想要重新開始自動(dòng)駕駛實(shí)驗(yàn),這次是在賓夕法尼亞州的匹茲堡。他們想要在匹茲堡的鬧市區(qū)進(jìn)行自動(dòng)駕駛實(shí)驗(yàn),因?yàn)槟抢镉歇M窄的街道,列車鐵軌,許多的行人…… 我覺得要是他們真去那里實(shí)驗(yàn),可能有更好的戲看了。

          自動(dòng)駕駛領(lǐng)域使用的視覺技術(shù)是根本不可靠的,給其它駕駛者和行人造成生命威脅,各個(gè)自動(dòng)駕駛公司卻吵著想讓政府交通部門給他們大開綠燈。某些公司被美國政府拒絕批準(zhǔn)牌照之后大吵大鬧,罵政府監(jiān)管部門不懂他們的“高科技”,太保守,跟不上時(shí)代。有的公司更是異想天開,想要政府批準(zhǔn)他們的自動(dòng)車上不安裝方向盤,油門和剎車,號(hào)稱自己的車已經(jīng)不需要人類駕駛員,甚至說“只有完全去掉了人類的控制,自動(dòng)車才能安全運(yùn)行?!?/p>

          一出出的鬧劇上演,演得好像自動(dòng)駕駛就快實(shí)現(xiàn)了,大家都在拼命搶奪這個(gè)市場似的,催促政府放寬政策。很是有些我們當(dāng)年大煉鋼鐵,超英趕美的架勢(shì)。這些公司就跟小孩子耍脾氣要買玩具一樣,全都吵著要爸媽讓他玩自動(dòng)駕駛,各種蠻橫要求,馬上給我,不然你就是不懂高科技,你就是“反智”,“反 AI”,你就是阻礙歷史進(jìn)步!給監(jiān)管機(jī)構(gòu)扣各種帽子,卻完全不理解里面的難度,倫理和責(zé)任。玩死了人,卻又抬出各種借口,不想負(fù)責(zé)任。

          雖然 Tesla 和 Uber 是應(yīng)該被譴責(zé)的,但這里面的視覺問題不只是這兩家公司的問題,整個(gè)自動(dòng)駕駛的領(lǐng)域都建立在虛浮的基礎(chǔ)上。我們應(yīng)該清楚地認(rèn)識(shí)到,現(xiàn)有的所謂 AI 根本沒有像人類一樣的視覺理解能力,它們只是非常粗糙的圖像識(shí)別,識(shí)別率還遠(yuǎn)遠(yuǎn)達(dá)不到人類的水平,所以根本就不可能實(shí)現(xiàn)自動(dòng)駕駛。

          什么 L1~L4 的自動(dòng)駕駛分級(jí),都是瞎扯。根本沒法實(shí)現(xiàn)的東西,分了級(jí)又有什么用呢?只是拿給這些公司用來忽悠大家的口號(hào),外加推脫責(zé)任的借口而已。出事故前拿來做宣傳:“我們已經(jīng)實(shí)現(xiàn) L2 自動(dòng)駕駛,目前在研究 L3 自動(dòng)駕駛,成功之后我們向 L4 進(jìn)軍!” 出事故后拿來推脫責(zé)任:“我們只是 L2 自動(dòng)駕駛,所以這次事故是理所當(dāng)然,不可避免的!”

          如果沒有視覺理解,依賴于圖像識(shí)別技術(shù)的“自動(dòng)駕駛車”,是不可能在復(fù)雜的情況下做出正確操作,保障人們安全的。機(jī)器人等一系列技術(shù),也只能停留在固定場景,精確定位的“工業(yè)機(jī)器人”階段,而不能在復(fù)雜的自然環(huán)境中行動(dòng)。

          識(shí)別技術(shù)還是有意義的

          要實(shí)現(xiàn)真正的語言理解和視覺理解是非常困難的,可以說是毫無頭緒。一代又一代的神經(jīng)學(xué)家,認(rèn)知科學(xué)家,哲學(xué)家,為了弄明白人類“認(rèn)知”和“理解”到底是怎么回事,已經(jīng)付出了許多的努力。可是直到現(xiàn)在,對(duì)于人類認(rèn)知和理解的認(rèn)識(shí)都不足以讓機(jī)器具有真正的理解能力。

          真正的 AI 其實(shí)沒有起步,很多跟 AI 沾點(diǎn)邊的人都忙著忽悠和布道,沒人關(guān)心其中的本質(zhì),又何談實(shí)現(xiàn)呢?除非真正有人關(guān)心到問題所在,去研究本質(zhì)的問題,否則實(shí)現(xiàn)真的理解能力就只是空中樓閣。我只是提醒大家不要盲目樂觀,不要被忽悠了。與其夸大其詞,欺騙大眾,說人工智能快要實(shí)現(xiàn)了,不如拿已有的識(shí)別技術(shù)來做一些有用的事情,誠實(shí)地面對(duì)這些嚴(yán)重的局限性。

          我并不是一味否定識(shí)別技術(shù),我只是反對(duì)把“識(shí)別”夸大為“理解”,把它等同于“智能”,進(jìn)行不實(shí)宣傳,用于超出它能力的領(lǐng)域。誠實(shí)地使用識(shí)別技術(shù)還是有用的,而且蠻有趣。我們可以用這些東西來做一些很有用的工具,輔助我們進(jìn)行一些事情。從語音識(shí)別,語音合成,圖片搜索,內(nèi)容推薦,商業(yè)金融數(shù)據(jù)分析,反洗錢,公安偵查,醫(yī)學(xué)圖像分析,疾病預(yù)測(cè),網(wǎng)絡(luò)攻擊監(jiān)測(cè),各種娛樂性質(zhì)的 app…… 它確實(shí)可以給我們帶來挺多好處,實(shí)現(xiàn)我們以前做不到的一些事情。

          另外雖然各公司都在對(duì)他們的“AI 對(duì)話系統(tǒng)”進(jìn)行夸大和不實(shí)宣傳,可是如果我們放棄“真正的對(duì)話”,坦誠地承認(rèn)它們并不是真正的在對(duì)話,并沒有智能,那它們確實(shí)可以給人帶來一些便利?,F(xiàn)有的所謂對(duì)話系統(tǒng),比如 Siri,Alexa,基本可以被看作是語音控制的命令行工具。你說一句話,機(jī)器就挑出其中的關(guān)鍵字,執(zhí)行一條命令。這雖然不是有意義的對(duì)話,卻可以提供一些方便。特別是在開車不方便看屏幕的時(shí)候,語音控制“下一首歌”,“空調(diào)風(fēng)量小一點(diǎn)”,“導(dǎo)航到最近的加油站”之類的命令,還是有用的。

          但不要忘記,識(shí)別技術(shù)不是真的智能,它沒有理解能力,不能用在自動(dòng)駕駛,自動(dòng)客服,送外賣,保潔阿姨,廚師,發(fā)型師,運(yùn)動(dòng)員等需要真正“視覺理解”或者“語言理解”能力的領(lǐng)域,更不能期望它們?nèi)〈處?,程序員,科學(xué)家等需要高級(jí)知識(shí)的工作。機(jī)器也沒有感情和創(chuàng)造力,不能取代藝術(shù)家,作家,電影導(dǎo)演。所有跟你說機(jī)器也能有“感情”或者“創(chuàng)造力”的都是忽悠,就像現(xiàn)在的對(duì)話系統(tǒng)一樣,只是讓人以為它們有那些功能,而其實(shí)根本就沒有。

          你也許會(huì)發(fā)現(xiàn),機(jī)器學(xué)習(xí)很適合用來做那些不直觀,人看不透,或者看起來很累的領(lǐng)域,比如各種數(shù)據(jù)分析。實(shí)際上那些就是統(tǒng)計(jì)學(xué)一直以來想解決的問題??墒且曈X這種人類和高等動(dòng)物的日常功能,機(jī)器的確非常難以超越。如果機(jī)器學(xué)習(xí)領(lǐng)域放棄對(duì)“人類級(jí)別智能”的盲目追求,停止拿“超人類視覺”一類的幌子來愚弄大眾,各種夸大,那么他們應(yīng)該能在很多方向做出積極的貢獻(xiàn)。

          (全文完)

          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          人工智能專家:AI并不像你想象的那么先進(jìn)
          【福布斯】人工智能蕩氣回腸的700年:1308 - 2016
          CNN圖像分類:從LeNet5到EfficientNet
          深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典模型介紹
          技術(shù)綜述 | 你真的了解圖像分類嗎?
          愚蠢的CNN,換個(gè)馬甲就認(rèn)不出貓!但,這病能治 | ICLR Oral
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服