人工智能在未來也許會(huì)成為一個(gè)極具爭議的話題,人類是否應(yīng)該大力發(fā)展人工智能呢?人工智能暗含的危險(xiǎn)是否真的存在?人類未來最大的敵人是否就是人工智能呢?一連串的問題,讓我們對(duì)人工智能的發(fā)展既好奇又擔(dān)憂,畢竟人類不想喪失霸主地位。
如果要說現(xiàn)如今什么專業(yè)最火,那么人工智能肯定能夠榜上有名,但是就是眼下最為火熱的方向卻被許多科學(xué)家擔(dān)憂,甚至害怕能夠顛覆人類的地位。
自從AlphaGo擊敗人類最后的智慧領(lǐng)域圍棋的時(shí)候,人類在為科技進(jìn)步狂歡的時(shí)候也在瑟瑟發(fā)抖。隨之而來的則是更多的“人工智能威脅論?!?/span>
作為“人工智能威脅論”的強(qiáng)有支持者馬斯克在7月30日,接受《紐約時(shí)報(bào)》專訪時(shí)再次對(duì)人工智能AI發(fā)出警告,他表示人工智能帶來的危險(xiǎn)已迫在眉睫,未來5年內(nèi)人類就可能被人工智能超越,只不過這并不是他首次擔(dān)憂人工智能的威脅,早在2014年,馬斯克就曾表示過人類未來最大的敵人就是人類所創(chuàng)造出來的人工智能。
馬斯克表示,我們正在處于人工智能比人類更聰明的發(fā)展趨勢(shì)下,而這個(gè)時(shí)間范圍有可能在五年內(nèi)就實(shí)現(xiàn)。雖然這不意味著五年內(nèi)我們?nèi)祟悤?huì)陷入困境,但那時(shí)的未來將帶來更多的不確定性。
他還表示目前所有的人工智能項(xiàng)目中,最擔(dān)心的是谷歌的DeepMind項(xiàng)目,因?yàn)檫@個(gè)項(xiàng)目的本質(zhì)是人工智能在所有游戲中征服人類(值得說明的是,擊敗人類智慧高峰的AlphaGo就是谷歌旗下DeepMind開發(fā)的)。
馬斯克曾在以前表示,人工智能對(duì)人類的威脅要遠(yuǎn)遠(yuǎn)高于核武器,因?yàn)樵谑澜鐩]有人會(huì)建議隨心所欲的開發(fā)核武器,但是人工智能卻不一樣,為此早在很久以前,馬斯克和霍金簽署一封公開信,主要意思就是表明人類不能夠任由人工智能的發(fā)展,應(yīng)該加以限制,還呼吁科學(xué)家們務(wù)必要嚴(yán)格發(fā)展人工智能,否則人類很有可能變成瀕危物種,甚至成為他們的“奴隸?!?/span>
對(duì)于人工智能的威脅馬斯克并沒有坐以待斃,2017年創(chuàng)辦了neuralink公司,希望將人腦融入電腦,不僅能夠治療一些人類疾病,還能夠讓人類進(jìn)入人工智能的世界,從而能夠控制人工智能,也就是用人工智能打敗人工智能。
目前趨勢(shì),人工智能的發(fā)展已經(jīng)勢(shì)不可擋了,面對(duì)這種情況人類應(yīng)當(dāng)如何抉擇呢?是選擇拋棄還是融合呢?也許在未來人工智能的發(fā)展有可能促使新人類的誕生,只是不知道阿西莫夫的機(jī)器人三定律在未來是否能行。
附:機(jī)器人三大定律
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存
聯(lián)系客服