开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費電子書等14項超值服

          開通VIP
          人工智能與機器學(xué)習(xí)的區(qū)別

          從廣義上講,人工智能涉及機器做一些只有人才能做到的事情。也就是說,計算機科學(xué)家不同意幾年前的某些計算能力是否可以構(gòu)成人工智能。如今,許多這些功能可能僅僅只被稱為軟件。

          人工智能的現(xiàn)代復(fù)興是由一種非常特殊的計算方式的進步推動的:也就是機器學(xué)習(xí)。我們經(jīng)常在Emerj上交替使用人工智能和機器學(xué)習(xí),但許多計算機科學(xué)家喜歡將兩者分開。關(guān)于人工智能的究竟是由什么構(gòu)成的,在該領(lǐng)域存在(并且可能永遠存在)辯論。一些計算機科學(xué)家不考慮人工智能的計算能力,除非它們涉及機器學(xué)習(xí)。

          這些科學(xué)家可能會繼續(xù)改變他們的人工智能參數(shù),直到實現(xiàn)人工一般智能(AGI)。AGI的發(fā)展(計算機執(zhí)行人類所能執(zhí)行的任何智力任務(wù)的能力)是許多計算機科學(xué)研究人員的目標,但實現(xiàn)它可能需要很多年,并且它值得在其他的時間用專門的一篇文章來形容。

          研究人員似乎同意的一點是機器學(xué)習(xí)在某種程度上屬于人工智能的范疇,而人工智能本身屬于計算機科學(xué)學(xué)科。深度學(xué)習(xí)是后續(xù)文章的主題,并且深度學(xué)習(xí)是機器學(xué)習(xí)的一個子集。這一概念由NVIDIA提出,解釋如下:

          上面是NVIDA對人工智能,機器學(xué)習(xí)和深度學(xué)習(xí)的概念化

          Yoshua Bengio,過去二十年來最杰出的深度學(xué)習(xí)研究者之一,為我們提供了他自己對機器學(xué)習(xí)的定義:

          機器學(xué)習(xí)研究是人工智能研究的一部分,旨在通過數(shù)據(jù),觀察和與世界的互動為計算機提供知識。獲得的知識允許計算機正確地推廣到新設(shè)置。

          盡管機器學(xué)習(xí)在今天的人工智能思想的主導(dǎo)地位,但人工智能曾經(jīng)以一種截然不同的方式被研究。

          專家系統(tǒng)和人工智能的早期方法

          在21世紀末和2010年初的機器學(xué)習(xí)取得進步之前,人工智能的興趣圍繞著一個完全獨立的計算能力。在60年代和70年代,專家系統(tǒng)主導(dǎo)了人工智能的開發(fā)。開發(fā)人員試圖通過將其概念化為一系列if-then語句來模仿人類思想和決策。實質(zhì)上,專家系統(tǒng)是一個由if-then場景構(gòu)建的大型網(wǎng)絡(luò),通過該場景過濾查詢以實現(xiàn)一些預(yù)編程的最終結(jié)果。專家系統(tǒng)背后的if-then語句被硬編碼到軟件中。因此,AI每次都會以相同的方式響應(yīng)某些輸入。

          如果所得到的軟件在工業(yè)中具有任何實際用途,那么這些if-then場景需要適當(dāng)?shù)赝ㄖI(lǐng)域?qū)<?。例如,為了建立一個專家系統(tǒng)來了解當(dāng)出現(xiàn)某種傳染病時應(yīng)該做些什么,開發(fā)人員需要以某種方式將軟件的if-then場景建立在傳染病專家在傳染病時可能做的事情的基礎(chǔ)上 。

          例如,開發(fā)人員可以采訪40位不同的傳染病醫(yī)療專家,并向他們詢問有關(guān)癥狀和治療的一系列問題,并將他們的反應(yīng)硬編碼到專家系統(tǒng)中。這需要軟件開發(fā)人員進行大量的深謀遠慮和規(guī)劃。他們需要與領(lǐng)域?qū)<液献?,列出某人可能詢問某個特定主題的所有可能問題,然后找出這些問題的所有可能的答案。如果他們沒不能解釋一個問題或答案,那么專家系統(tǒng)將無法提供用戶問題的準確答案。

          另一個例子可能涉及客戶支持票。專家系統(tǒng)可以建立在以下if-then場景上:“如果電子郵件的正文中包含”退款“字樣,則將票證路由到退款票據(jù)桶?!边@當(dāng)然看起來是一個合理的規(guī)則,它確實可能會將大部分退款票據(jù)路由到相應(yīng)的桶中。該規(guī)則不考慮客戶談?wù)撆c退款相關(guān)的概念或使用退款相關(guān)短語而不使用“退款”一詞的支持票。

          客戶可能會說,“如果你不給我回電話,我就會打電話給我的銀行。”一個有業(yè)務(wù)背景的人力支持代理可能知道這樣的門票通常涉及到客戶不知道他們賬戶的費用是他們注冊的年度訂閱服務(wù)。代理商可能也知道,在幾乎所有情況下,客戶都希望退還該費用?;趯<蚁到y(tǒng)的軟件永遠無法將這些票據(jù)退還到退款桶中。

          專家系統(tǒng)的局限性

          從理論上講,具有業(yè)務(wù)“客戶支持票證背景”的人員可以在構(gòu)建專家系統(tǒng)之前將有關(guān)此場景的信息傳遞給構(gòu)建專家系統(tǒng)的開發(fā)人員。if-then規(guī)則可能類似于“如果電子郵件的正文包含'bank'一詞,則將票證路由到退款票據(jù)桶?!?/p>

          但是,如果該企業(yè)最近才開始銷售其訂購服務(wù),那么其基于專家系統(tǒng)的客戶支持軟件將無法適應(yīng)進入系統(tǒng)的各種票證,并對其訂閱服務(wù)進行模糊引用,例如上面的示例。在業(yè)務(wù)聯(lián)系開發(fā)人員以使用另一個if-then規(guī)則更新軟件之前,這些票證不會被路由到退款桶中。

          圍繞這一限制進行工作明顯是不切實際的,這也是專家系統(tǒng)(以及通常的人工智能)在一段被稱為“人工智能寒冬”的時期內(nèi)衰退的最大原因

          機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)

          隨著互聯(lián)網(wǎng)的出現(xiàn),從在線購物到保險理賠的大量數(shù)據(jù)都變得數(shù)字化。數(shù)據(jù)現(xiàn)在已成為常態(tài),即使是最小的公司也將數(shù)據(jù)存儲在數(shù)字格式中。

          機器學(xué)習(xí)是一種讓計算機以與專家系統(tǒng)完全不同的方式模仿人類思想和決策的方式。如果一個人有能力存儲,訪問和理解他們可以做出決策的大腦中的數(shù)十億個數(shù)據(jù)點,他們可能會做出與我們現(xiàn)在做出決策的方式截然不同的決策; 在任何情況下,在絕大多數(shù)情況下,對更多信息和背景做出的決定優(yōu)于在較少信息和較少背景下進行的決策。

          簡而言之,機器學(xué)習(xí)模型可以對數(shù)十億個數(shù)據(jù)點做出決策。它們理解這些數(shù)據(jù),并將其轉(zhuǎn)化為可能性,為它們的產(chǎn)出提供動力。這與專家系統(tǒng)非常不同,專家系統(tǒng)每個if-then規(guī)則只有一個輸出,每個“if”只有一個“then”。更重要的是,機器學(xué)習(xí)模型是為了適應(yīng)新的意外的輸入而構(gòu)建的。專家系統(tǒng)不知道如何處理不屬于退款票規(guī)則的退票,但隨著時間的推移,機器學(xué)習(xí)模型可以開始將“我正在給我的銀行打電話”路由到退款桶中,作為回應(yīng)人的反饋。

          機器學(xué)習(xí)的適應(yīng)性

          如果人員在其路由正確或不正確時向模型指示,那么它可以使用該反饋來通知其基于其票證路由的可能性。雖然我們建議不要將人工智能擬人化,但它本身會問自己“這張票應(yīng)該被送到退款桶的可能性是多少?”每當(dāng)提供支持票時。如果確定可能性很高,則票證將被路由到退款桶。如果確定可能性較低,則可以對模型進行編程以標記票據(jù)以供人工審查。

          這種適應(yīng)性是機器學(xué)習(xí)和專家系統(tǒng)之間的關(guān)鍵差異,這就是為什么一些計算機科學(xué)家不再考慮專家系統(tǒng)和人工智能的其他計算能力的原因。它也是斯坦福定義機器學(xué)習(xí)的基礎(chǔ):“讓計算機在沒有明確編程的情況下采取行動的科學(xué)?!?/p>

          這種適應(yīng)性的一個例子是Netflix的推薦引擎。當(dāng)平臺上的新用戶第一次從俄克拉荷馬州的某個位置登錄時,推薦引擎除了用戶的IP位置之外幾乎沒有任何關(guān)于該用戶的數(shù)據(jù)。但是,Netflix確實有幾百萬個數(shù)據(jù)點來自于俄克拉荷馬州的其他用戶。推薦引擎可以使用該數(shù)據(jù)來基于過去與類似用戶的交互來做出關(guān)于該新用戶可能想要看到什么內(nèi)容的一般假設(shè)。

          當(dāng)用戶繼續(xù)與Netflix交互時,他們選擇觀看的數(shù)據(jù),當(dāng)他們暫停這些節(jié)目或完全停止觀看時,以及顯示他們連續(xù)觀看的數(shù)據(jù)通知機器學(xué)習(xí)模型推薦給用戶可能喜歡的節(jié)目。該模型響應(yīng)用戶的交互并適應(yīng)他們的偏好。用戶的數(shù)據(jù)還為其他用戶提供了推薦,這些用戶具有第一個用戶相似的偏好和相似的人口統(tǒng)計學(xué)特征。

          機器學(xué)習(xí)的核心是在大量數(shù)據(jù)上進行訓(xùn)練機器,使機器能夠識別數(shù)據(jù)中的模式,從而確定使用特定輸出而獲得成功的可能性。

          機器學(xué)習(xí)的局限性

          機器學(xué)習(xí)有其局限性,事實上,當(dāng)涉及到一個核心概念時,它比專家系統(tǒng)更糟糕:那就是可解釋性。

          我們可以遵循一系列if-then規(guī)則來弄清楚專家系統(tǒng)是如何產(chǎn)生特定輸出的。如果結(jié)果證明他們的答案”then“是不正確的,那么就允許開發(fā)人員修復(fù)這些規(guī)則。專家系統(tǒng)是高度透明的,這在某些領(lǐng)域甚至是必要的,這是有幫助的。

          如果患者詢問他們的醫(yī)生為什么他們診斷患有疾病,醫(yī)生如果根據(jù)專家系統(tǒng)的輸出做出診斷,那么醫(yī)生可以回答這個問題。從理論上講,他們可以通過專家系統(tǒng)的if-then規(guī)則讀取導(dǎo)致其輸出的信息,以及患者的診斷結(jié)果。

          機器學(xué)習(xí)模型不是這種情況,它比if-then樹復(fù)雜得多。機器學(xué)習(xí)模型背后的神經(jīng)網(wǎng)絡(luò)可能如下所示:

          這是華威大學(xué)的典型的drop-net神經(jīng)網(wǎng)絡(luò)

          如果醫(yī)生根據(jù)機器學(xué)習(xí)模型的輸出進行診斷,他們將無法向患者解釋清楚。機器學(xué)習(xí)模型基于在數(shù)據(jù)集中自行構(gòu)建的模式進行輸出。人類在沒有任何上下文的情況下為機器學(xué)習(xí)算法提供數(shù)據(jù),并且該算法提供了一些基于人類目前無法識別的模式來確定結(jié)果。

          機器學(xué)習(xí)模型可以基于任意數(shù)量的數(shù)據(jù)點為患者進行診斷。這可能是因為患者的CT掃描異常。也可能是因為他們的人口統(tǒng)計學(xué)特征,他們的名字,以及他們的保險索賠歷史,比其他人更容易被診斷出患有特定疾病。醫(yī)生既無法確認也無法否認。

          這個問題也就是所謂的人工智能的“黑匣子”。機器學(xué)習(xí)模型可以通過以人類無法達到的規(guī)模查找數(shù)據(jù)模式來進行預(yù)測和推薦,但沒有人能夠解釋模型如何或為何做出這些預(yù)測和建議。沒有透明度,這是某些行業(yè)的一個主要問題,正如我們在報告中討論的那樣,在B2B和B2C中應(yīng)用人工智能 - 有什么區(qū)別?對于計算機科學(xué)研究人員而言,黑匣子是一個令人擔(dān)憂的問題,被稱為“人工智能教父”的杰弗里·辛頓甚至建議“把它扔掉,然后再重新開始”。

          商業(yè)領(lǐng)袖的經(jīng)驗

          絕大多數(shù)商業(yè)領(lǐng)袖可能會考慮的人工智能解決方案,我們在Emerj所涵蓋的確實是機器學(xué)習(xí)解決方案。商業(yè)領(lǐng)袖可以在談話中使用人工智能,并希望他們的數(shù)據(jù)科學(xué)家能夠理解他們所指的是機器學(xué)習(xí)。從歷史的角度來看,專家系統(tǒng)通常被認為是人工智能,但是在80年代末期之前開發(fā)的計算能力通常不是人們在談?wù)撊斯ぶ悄軙r所指的。

          有可能在未來十年或二十年內(nèi),機器學(xué)習(xí)本身將面臨類似的命運,被歸納為計算機科學(xué)史的范疇,作為一種計算能力,它在當(dāng)時發(fā)揮了應(yīng)有的作用,但最終讓位于某種更復(fù)雜,或許更具解釋性的東西。再或者,機器學(xué)習(xí)可能不會被拋棄,而是變得無處不在,以至于它不再被稱為人工智能。

          商業(yè)領(lǐng)袖可以將專家系統(tǒng)和機器學(xué)習(xí)視為人工智能頻譜的兩端?,F(xiàn)在,開發(fā)人員在開始構(gòu)建人工智能解決方案時,通常不會構(gòu)建專家系統(tǒng); 他們建立機器學(xué)習(xí)模型。是實現(xiàn)人工智能相同目標的兩種截然不同的方法:讓計算機完成傳統(tǒng)上為人類保留的智力任務(wù)。機器學(xué)習(xí)和專家系統(tǒng)是人工智能的子集,它是整個計算機科學(xué)的一個子集。

          本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          第四范式
          遷移學(xué)習(xí)領(lǐng)軍人物戴文淵:人工智能=大數(shù)據(jù) 機器學(xué)習(xí)
          【重磅】思維與機器:人工智能時代的預(yù)測之術(shù)
          【AI不惑境】數(shù)據(jù)壓榨有多狠,人工智能就有多成功
          DIKW金字塔,AI爬到第幾層了?
          DARPA資助人工智能 打開機器學(xué)習(xí)的黑盒子
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
          綁定賬號成功
          后續(xù)可登錄賬號暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點擊這里聯(lián)系客服!

          聯(lián)系客服