作者:龔進(jìn)輝
昨天,谷歌人工智能圍棋程序AlphaGo與韓國棋手李世石的人機(jī)世紀(jì)大戰(zhàn)如期上演,雙方激戰(zhàn)3個(gè)半小時(shí)后,李世石宣布認(rèn)輸,頓時(shí)在網(wǎng)上炸開了鍋,各種意見接踵而至,其中不乏對未來人工智能超越人類后的擔(dān)憂和恐懼。
開戰(zhàn)之前,外界圍繞最終AlphaGo取勝還是李世石、比分預(yù)測展開激烈討論,一種常見的看法是:無論本次AlphaGo是否贏李世石,未來人工智能戰(zhàn)勝人類只是時(shí)間問題。美國計(jì)算機(jī)科學(xué)家?guī)炱濏f爾預(yù)測2029年人工智能比肩或超越人類,開發(fā)AlphaGo的DeepMind創(chuàng)始人哈薩比斯則認(rèn)為距離人腦水平的人工智能仍相當(dāng)遙遠(yuǎn),可能還需要幾十年。
我認(rèn)同上述觀點(diǎn),長遠(yuǎn)來看,人工智能勢必將超越人類,但在可預(yù)見的將來,超越的可能性微乎其微。盡管外界對超越所需時(shí)間看法不一,但更大分歧在于智能化程度越來越高的機(jī)器人將對人類產(chǎn)生何種影響。
百度首席科學(xué)家吳恩達(dá)對人工智能的前景表示樂觀,他認(rèn)為不必對技術(shù)產(chǎn)生恐懼的情緒,人工智能不會導(dǎo)致世界末日,而是給人類社會提出新的挑戰(zhàn)。相反,特斯拉創(chuàng)始人馬斯克則極力宣揚(yáng)人工智能威脅論,他直言人工智能是人類生存的最大威脅,比核武器更加危險(xiǎn),需要萬分警惕和加強(qiáng)監(jiān)管。
過去一年多來,兩種意見始終僵持不下,誰也沒有徹底說服誰。隨著AlphaGo在第一局比賽碾壓李世石的結(jié)果出爐,人工智能威脅論有明顯上升勢頭,不少人對人工智能發(fā)展前景表示擔(dān)憂,尤其是機(jī)器人超過人腦這一歷史性時(shí)刻來臨時(shí)不知如何應(yīng)對。那么問題來了,我們真的需要警惕人工智能嗎?
四大理由支撐起人工智能威脅論
人機(jī)大戰(zhàn)前一天,谷歌董事長施密特在發(fā)布會上表示,輸贏都是人類的勝利,因?yàn)槿祟惖呐ψ屓斯ぶ悄艹霈F(xiàn)現(xiàn)在的突破。谷歌不只是想做一個(gè)棋類程序,而是一個(gè)通用的智能計(jì)算系統(tǒng),用于災(zāi)害預(yù)測、風(fēng)險(xiǎn)控制、醫(yī)療健康和機(jī)器人等復(fù)雜領(lǐng)域。換言之,谷歌希望人工智能更好地服務(wù)人類,沒有任何惡意。
不過,不少人對AlphaGo在首局比賽中展現(xiàn)的驚人自學(xué)習(xí)能力感到意外,甚至連專業(yè)棋手都表示“看不懂”,億萬網(wǎng)友通過網(wǎng)絡(luò)見證李世石首局落敗,篤信人類未來同樣會遭人工智能搏殺的聲音越來越多。
目前甚囂塵上的人工智能威脅論,主要有四大理由支撐:一、增加就業(yè)前景的不確定性。不少人擔(dān)心未來機(jī)器人會搶走人類飯碗,讓他們失去數(shù)以百萬計(jì)的就業(yè)機(jī)會。盡管人工智能不可避免對人類就業(yè)產(chǎn)生沖擊,但必須清醒意識到,科技發(fā)展也會催生大量新的就業(yè)機(jī)會。
比如,美國從農(nóng)業(yè)經(jīng)濟(jì)時(shí)代發(fā)展到現(xiàn)在,只有不到2%的人仍是農(nóng)民,技術(shù)發(fā)展200多年才取代農(nóng)業(yè),這并沒有導(dǎo)致農(nóng)民“失業(yè)”,相反他們可以訓(xùn)練自己的子女,從事農(nóng)業(yè)之外的各種工作。
二、技術(shù)濫用。大數(shù)據(jù)和智能硬件的發(fā)展可能會使技術(shù)缺陷被不法分子利用,從而對人類社會造成傷害。三、人類退化。智能在某種程度上代替了人類的身體和智力活動,久而久之,人類越來越依賴技術(shù)的便利,把所有事情都交給機(jī)器人決策,導(dǎo)致人類變得更加懶惰、身體機(jī)能退化,思考能力下降。
四、屠殺人類。自1956年人工智能被提出以來,一直朝“擬人”方向發(fā)展,機(jī)器人開始擁有越來越聰明的大腦,也產(chǎn)生“情感”,其中深度學(xué)習(xí)能力功不可沒。這一特性逐漸令很多人恐慌,擔(dān)心有朝一日可以模擬人類思維的機(jī)器人,會突然萌生毀滅人類的想法,電影中智能反噬人類的場景成為現(xiàn)實(shí),這才是最可怕的。
人工智能威脅論被嚴(yán)重夸大
在我看來,人工智能威脅論被嚴(yán)重夸大,現(xiàn)實(shí)不會如此糟糕,完全沒必要擔(dān)心。當(dāng)然,我持樂觀態(tài)度不是因?yàn)檎J(rèn)同“機(jī)器人由人類設(shè)計(jì)并掌控”或“只要斷開電源就能制止機(jī)器人”等錯(cuò)誤看法,而是認(rèn)定機(jī)器人再如何進(jìn)化也永遠(yuǎn)不能像人類一樣真正思考。
人工智能發(fā)展已走過60年光景,但目前整體發(fā)展水平仍偏低,達(dá)到人類聰慧程度甚至全面超越還要走很長一段路,因?yàn)樾录夹g(shù)從研發(fā)到商用需要經(jīng)歷漫長積淀,威脅人類生存還很遙遠(yuǎn),估計(jì)這輩子我看不到??苹米骷覄⒋刃酪舱J(rèn)為,關(guān)于人工智能發(fā)展的警告多少有些危言聳聽。
盡管近期人工智能威脅論興起,但現(xiàn)階段人工智能不會停止發(fā)展步伐,因?yàn)閺募夹g(shù)趨勢來看,智能對人類功大于過。比如,計(jì)算機(jī)的出現(xiàn)使一批人失業(yè),科技產(chǎn)品帶來文化污染,但人類成為科技進(jìn)步受益者毋庸置疑,不僅解放勞動力,而且推動社會進(jìn)步。
值得注意的是,外界對馬斯克反復(fù)宣揚(yáng)人工智能威脅論的動機(jī)也表示懷疑,認(rèn)為其通過不斷恐嚇人類,把自己塑造成人類保護(hù)神,試圖通過開源和開放占領(lǐng)未來人工智能領(lǐng)域標(biāo)準(zhǔn)制定的制高點(diǎn),而這一標(biāo)準(zhǔn)的搶占將為其帶來巨大的商業(yè)利益。
同時(shí),一個(gè)容易忽略的事實(shí)是,機(jī)器人再如何發(fā)展終究還是機(jī)器人,不具備靈魂,即人類精神、情感不是智能算法能夠完全復(fù)制的,即便未來機(jī)器人學(xué)會復(fù)雜的動作,也不具備真正的思考能力,而且基于軍事目的的自動殺人機(jī)器人早已出現(xiàn)。
比如,澳大利亞海軍已成功部署高度自動化近距離武器系統(tǒng),通過自主計(jì)算控制或手動控制,每分鐘可以發(fā)射數(shù)千萬彈藥。由于此類軍事武器系統(tǒng)采用特定的環(huán)境和語境算法,對普通平民的威脅幾乎是零。換言之,只要人類適當(dāng)干預(yù)算法,自動殺入機(jī)器人的威脅并不如想象中大。
事實(shí)上,人類對人工智能的過度擔(dān)憂也是人性特征的一種體現(xiàn)。自古以來,人類對未知事物產(chǎn)生恐懼并不是什么新鮮事,恐懼的本能貫穿所有新奇事物從誕生到發(fā)展的全過程??茖W(xué)家們對人工智能的警惕是必要的,但過分杞人憂天多此一舉。畢竟,今天的人工智能只是通過強(qiáng)大的數(shù)據(jù)運(yùn)算能力來模擬出智能,并沒有像人類一樣的自我思考能力和興趣。
換言之,現(xiàn)有的智能技術(shù)和真正全面戰(zhàn)勝人類的超級智能完全是兩碼事,切勿陷入“爬上一棵樹以為自己在月球”的不切實(shí)際的幻想之中。人工智能發(fā)展前景的最大問題不是機(jī)器人,而是人類,人類要確保可預(yù)見的未來一直持續(xù)下去。
上海機(jī)器人學(xué)會理事長錢晉武曾直言,機(jī)器人不可能比人更壞,“如果有人做壞機(jī)器人,肯定是壞人,但好人比壞人多,肯定誕生大量好機(jī)器人?!彼J(rèn)為邏輯思維不可能產(chǎn)生創(chuàng)造性思維,也沒有人知道創(chuàng)造性思維怎么來的,并預(yù)測200年內(nèi)不可能做出跟人一樣的機(jī)器人,因?yàn)榘讶搜芯客感枰ㄙM(fèi)大量時(shí)間,目前人類只使用大腦的10%。
如果嚴(yán)格定義計(jì)算機(jī)超越人類,機(jī)器人在力氣、精準(zhǔn)度等方面早已甩人類N條街,比如機(jī)器人能裝下四庫全書;至于全面超越人類,在可預(yù)見的將來幾乎不可能。當(dāng)聽到馬斯克等商業(yè)大佬屢屢曝出驚人之語,最好留個(gè)心眼,背后可能是商業(yè)利益驅(qū)使。