开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開(kāi)APP
          userphoto
          未登錄

          開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

          開(kāi)通VIP
          徹底理解機(jī)器學(xué)習(xí) SVM 模型

          概要

          1.1 簡(jiǎn)介

          自從大半年前接觸到SVM以來(lái),感覺(jué)一直沒(méi)怎么把SVM整明白。直到最近上的《模式識(shí)別》課程才仿佛打通了我的任督二脈,使我終于搞清楚了SVM的來(lái)龍去脈,所以寫(xiě)個(gè)博客作個(gè)總結(jié)。
          SVM是什么? 先來(lái)看看維基百科上對(duì)SVM的定義(https://zh.wikipedia.org/wiki/支持向量機(jī)):
          支持向量機(jī)(英語(yǔ):support vector machine,常簡(jiǎn)稱為SVM,又名支持向量網(wǎng)絡(luò))是在分類與回歸分析中分析數(shù)據(jù)的監(jiān)督式學(xué)習(xí)模型與相關(guān)的學(xué)習(xí)算法。給定一組訓(xùn)練實(shí)例,每個(gè)訓(xùn)練實(shí)例被標(biāo)記為屬于兩個(gè)類別中的一個(gè)或另一個(gè),SVM訓(xùn)練算法創(chuàng)建一個(gè)將新的實(shí)例分配給兩個(gè)類別之一的模型,使其成為非概率二元線性分類器。SVM模型是將實(shí)例表示為空間中的點(diǎn),這樣映射就使得單獨(dú)類別的實(shí)例被盡可能寬的明顯的間隔分開(kāi)。然后,將新的實(shí)例映射到同一空間,并基于它們落在間隔的哪一側(cè)來(lái)預(yù)測(cè)所屬類別。
          如果從未接觸SVM的話,維基的這一大段解釋肯定會(huì)讓你一頭霧水。簡(jiǎn)單點(diǎn)講,SVM就是一種二類分類模型,他的基本模型是的定義在特征空間上的間隔最大的線性分類器,SVM的學(xué)習(xí)策略就是間隔最大化。

          1.2 直觀理解

          我們先來(lái)看看下面這個(gè)圖:
          圖1.1
          圖中有分別屬于兩類的一些二維數(shù)據(jù)點(diǎn)和三條直線。如果三條直線分別代表三個(gè)分類器的話,請(qǐng)問(wèn)哪一個(gè)分類器比較好?
          我們憑直觀感受應(yīng)該覺(jué)得答案是H3。首先H1不能把類別分開(kāi),這個(gè)分類器肯定是不行的;H2可以,但分割線與最近的數(shù)據(jù)點(diǎn)只有很小的間隔,如果測(cè)試數(shù)據(jù)有一些噪聲的話可能就會(huì)被H2錯(cuò)誤分類(即對(duì)噪聲敏感、泛化能力弱)。H3以較大間隔將它們分開(kāi),這樣就能容忍測(cè)試數(shù)據(jù)的一些噪聲而正確分類,是一個(gè)泛化能力不錯(cuò)的分類器。
          對(duì)于支持向量機(jī)來(lái)說(shuō),數(shù)據(jù)點(diǎn)若是
          維向量,我們用
          維的超平面來(lái)分開(kāi)這些點(diǎn)。但是可能有許多超平面可以把數(shù)據(jù)分類。最佳超平面的一個(gè)合理選擇就是以最大間隔把兩個(gè)類分開(kāi)的超平面。因此,SVM選擇能夠使離超平面最近的數(shù)據(jù)點(diǎn)的到超平面距離最大的超平面。
          以上介紹的SVM只能解決線性可分的問(wèn)題,為了解決更加復(fù)雜的問(wèn)題,支持向量機(jī)學(xué)習(xí)方法有一些由簡(jiǎn)至繁的模型:
          • 線性可分SVM
          當(dāng)訓(xùn)練數(shù)據(jù)線性可分時(shí),通過(guò)硬間隔(hard margin,什么是硬、軟間隔下面會(huì)講)最大化可以學(xué)習(xí)得到一個(gè)線性分類器,即硬間隔SVM,如上圖的的H3。
          • 線性SVM
          當(dāng)訓(xùn)練數(shù)據(jù)不能線性可分但是可以近似線性可分時(shí),通過(guò)軟間隔(soft margin)最大化也可以學(xué)習(xí)到一個(gè)線性分類器,即軟間隔SVM。
          • 非線性SVM
          當(dāng)訓(xùn)練數(shù)據(jù)線性不可分時(shí),通過(guò)使用核技巧(kernel trick)和軟間隔最大化,可以學(xué)習(xí)到一個(gè)非線性SVM。

          線性可分SVM——硬間隔

          考慮如下形式的線性可分的訓(xùn)練數(shù)據(jù)集:
          其中
          是一個(gè)含有
          個(gè)元素的列向量, 即
          ;
          是標(biāo)量,
          ,
          時(shí)表示
          屬于正類別,
          時(shí)表示
          屬于負(fù)類別。
          注: 本文中,
          、
          等都是(列)向量,有的文章一般用
          表示一個(gè)向量而用
          表示所有
          組成的一個(gè)矩陣,注意區(qū)分。
          回憶一下感知機(jī)的目標(biāo): 找到一個(gè)超平面使其能正確地將每個(gè)樣本正確分類。感知機(jī)使用誤分類最小的方法求得超平面,不過(guò)此時(shí)解有無(wú)窮多個(gè)(例如圖1.1的H2和H3以及它倆的任意線性組合)。而線性可分支持向量機(jī)利用間隔最大化求最優(yōu)分離超平面,這時(shí)解是唯一的。

          2.1 超平面與間隔

          一個(gè)超平面由法向量
          和截距
          決定,其方程為
          , 可以規(guī)定法向量指向的一側(cè)為正類,另一側(cè)為負(fù)類。下圖畫(huà)出了三個(gè)平行的超平面,法方向取左上方向。
          注意: 如果
          都是列向量,即
          會(huì)得到
          的點(diǎn)積(dot product, 是一個(gè)標(biāo)量),等價(jià)于
          。
          圖2.1
          為了找到最大間隔超平面,我們可以先選擇分離兩類數(shù)據(jù)的兩個(gè)平行超平面,使得它們之間的距離盡可能大。在這兩個(gè)超平面范圍內(nèi)的區(qū)域稱為“間隔(margin)”,最大間隔超平面是位于它們正中間的超平面。這個(gè)過(guò)程如上圖所示。

          2.2 間隔最大化

          將高數(shù)里面求兩條平行直線的距離公式推廣到高維可求得圖2.1中margin的
          :
          我們的目標(biāo)是使
          最大, 等價(jià)于使
          最大:
          上式的  是為了后續(xù)求導(dǎo)后剛好能消去,沒(méi)有其他特殊意義。
          同時(shí)也不要忘了有一些約束條件:
          總結(jié)一下,間隔最大化問(wèn)題的數(shù)學(xué)表達(dá)就是
          通過(guò)求解上式即可得到最優(yōu)超平面
          。具體如何求解見(jiàn)2.4和2.5節(jié)。

          2.3 支持向量

          在線性可分的情況下,訓(xùn)練數(shù)據(jù)集的樣本點(diǎn)中與分離超平面距離最近的數(shù)據(jù)點(diǎn)稱為支持向量(support vector),支持向量是使
          中的約束條件取等的點(diǎn),即滿足
          的點(diǎn)。也即所有在直線
          或直線
          的點(diǎn)。如下圖所示:
          圖 2.2
          在決定最佳超平面時(shí)只有支持向量起作用,而其他數(shù)據(jù)點(diǎn)并不起作用(具體推導(dǎo)見(jiàn)2.4節(jié)最后)。如果移動(dòng)非支持向量,甚至刪除非支持向量都不會(huì)對(duì)最優(yōu)超平面產(chǎn)生任何影響。也即支持向量對(duì)模型起著決定性的作用,這也是“支持向量機(jī)”名稱的由來(lái)。

          2.4 對(duì)偶問(wèn)題

          如何求解式
          呢?
          我們稱式
          所述問(wèn)題為原始問(wèn)題(primal problem), 可以應(yīng)用拉格朗日乘子法構(gòu)造拉格朗日函數(shù)(Lagrange function)再通過(guò)求解其對(duì)偶問(wèn)題(dual problem)得到原始問(wèn)題的最優(yōu)解。轉(zhuǎn)換為對(duì)偶問(wèn)題來(lái)求解的原因是:
          • 對(duì)偶問(wèn)題更易求解,由下文知對(duì)偶問(wèn)題只需優(yōu)化一個(gè)變量
            且約束條件更簡(jiǎn)單;
          • 能更加自然地引入核函數(shù),進(jìn)而推廣到非線性問(wèn)題。
          首先構(gòu)建拉格朗日函數(shù)。為此需要引進(jìn)拉格朗日乘子(Lagrange multiplier)
          。則拉格朗日函數(shù)為:
          因此,給定一個(gè)
          , 若不滿足式
          的約束條件,那么有
          否則,若滿足式
          的約束條件,有
          結(jié)合式
          知,優(yōu)化問(wèn)題
          與式
          所述問(wèn)題是完全等價(jià)的。
          根據(jù)拉格朗日對(duì)偶性,式
          所述問(wèn)題即原始問(wèn)題的對(duì)偶問(wèn)題是:
          以上具體推導(dǎo)細(xì)節(jié)可參見(jiàn)書(shū)籍《統(tǒng)計(jì)學(xué)習(xí)方法》或者知乎文章拉格朗日對(duì)偶性
          為了求得對(duì)偶問(wèn)題的解,需要先求得
          對(duì)
          的極小再求對(duì)
          的極大。
          (1) 求
          : 對(duì)拉格朗日函數(shù)求導(dǎo)并令導(dǎo)數(shù)為0,有:
          將上面兩式代入

          所以,
          (2) 求
          對(duì)
          的極大:
          等價(jià)于式
          對(duì)
          求極大,也等價(jià)于式
          取負(fù)數(shù)后對(duì)
          求極小,即
          同時(shí)滿足約束條件:
          至此,我們得到了原始最優(yōu)化問(wèn)題
          和對(duì)偶最優(yōu)化問(wèn)題
          、
          。
          由slater條件知,因?yàn)樵純?yōu)化問(wèn)題的目標(biāo)函數(shù)和不等式約束條件都是凸函數(shù),并且該不等式約束是嚴(yán)格可行的(因?yàn)閿?shù)據(jù)是線性可分的), 所以存在
          ,
          ,
          ,使得
          ,
          是原始問(wèn)題的解,
          是對(duì)偶問(wèn)題的解。這意味著求解原始最優(yōu)化問(wèn)題
          可以轉(zhuǎn)換為求解對(duì)偶最優(yōu)化問(wèn)題
          、
          slater 條件: 原始問(wèn)題一般性表達(dá)為

          則其拉格朗日函數(shù)為
          假設(shè)原始問(wèn)題目標(biāo)函數(shù)
          和不等式約束條件
          都是凸函數(shù),原始問(wèn)題等式約束
          都是仿射函數(shù),且不等式約束
          是嚴(yán)格可行的,即存在
          ,對(duì)所有
          都有
          ,則存在
          ,
          ,
          ,使
          是原始問(wèn)題的解,
          ,
          是對(duì)偶問(wèn)題的解。
          那么如何求解優(yōu)化問(wèn)題
          、
          的最優(yōu)解
          呢?不難發(fā)現(xiàn)這是一個(gè)二次規(guī)劃問(wèn)題,有現(xiàn)成的通用的算法來(lái)求解。
          事實(shí)上通用的求解二次規(guī)劃問(wèn)題的算法的復(fù)雜度正比于訓(xùn)練數(shù)據(jù)樣本數(shù),所以在實(shí)際應(yīng)用中需要尋求更加高效的算法,例如序列最小優(yōu)化(Sequential Minimal Optimiation, SMO)算法。
          假設(shè)我們現(xiàn)在求得了
          、
          的最優(yōu)解
          ,則根據(jù)式
          可求得最優(yōu)
          因?yàn)橹辽俅嬖谝粋€(gè)
          (若不存在,即
          全為0,則
          , 即
          ,顯然不行), 再根據(jù)KKT條件,即
          所以至少存在一個(gè)
          , 使
          , 即可求得最優(yōu)
          :
          至此,所以我們就求得了整個(gè)線性可分SVM的解。求得的分離超平面為:
          則分類的決策函數(shù)為
          再來(lái)分析KKT條件里的互補(bǔ)條件,對(duì)于任意樣本
          ,總會(huì)有
          或者
          。則有若
          ,此樣本點(diǎn)不是支持向量,對(duì)模型沒(méi)有任何作用;若
          ,此樣本點(diǎn)位于最大間隔邊界上,是一個(gè)支持向量,如下圖所示。
          圖2.3
          此外,當(dāng)樣本點(diǎn)是非支持向量時(shí),因?yàn)?/span>
          , 所以SVM的解中的求和項(xiàng)中第
          項(xiàng)就為0,所以SVM的解
          、
          可簡(jiǎn)化為如下形式:
          類似的,判別函數(shù)也可轉(zhuǎn)換成如下形式:
          所以,整個(gè)SVM的解只與支持向量SV有關(guān),與非支持向量無(wú)關(guān)。這也就解釋了2.3節(jié)的結(jié)論,即在決定最佳超平面時(shí)只有支持向量起作用,而其他數(shù)據(jù)點(diǎn)并不起作用。

          線性SVM——軟間隔

          在前面的討論中,我們一直假定訓(xùn)練數(shù)據(jù)是嚴(yán)格線性可分的,即存在一個(gè)超平面能完全將兩類數(shù)據(jù)分開(kāi)。但是現(xiàn)實(shí)任務(wù)這個(gè)假設(shè)往往不成立,例如下圖所示的數(shù)據(jù)。
          圖3.1

          3.1 軟間隔最大化

          解決該問(wèn)題的一個(gè)辦法是允許SVM在少量樣本上出錯(cuò),即將之前的硬間隔最大化條件放寬一點(diǎn),為此引入“軟間隔(soft margin)”的概念。即允許少量樣本不滿足約束
          為了使不滿足上述條件的樣本點(diǎn)盡可能少,我們需要在優(yōu)化的目標(biāo)函數(shù)
          里面新增一個(gè)對(duì)這些點(diǎn)的懲罰項(xiàng)。最常用的是hinge損失:
          即若樣本點(diǎn)滿足約束條件損失就是0, 否則損失就是
          ,則優(yōu)化目標(biāo)
          變成
          其中
          稱為懲罰參數(shù),
          越小時(shí)對(duì)誤分類懲罰越小,越大時(shí)對(duì)誤分類懲罰越大,當(dāng)
          取正無(wú)窮時(shí)就變成了硬間隔優(yōu)化。實(shí)際應(yīng)用時(shí)我們要合理選取
          ,
          越小越容易欠擬合,
          越大越容易過(guò)擬合。
          如果我們引入“松弛變量”
          , 那么式
          可重寫(xiě)成
          上式所述問(wèn)題即軟間隔支持向量機(jī)。

          3.2 對(duì)偶問(wèn)題

          表示的軟間隔支持向量機(jī)依然是一個(gè)凸二次規(guī)劃問(wèn)題,和硬間隔支持向量機(jī)類似,我們可以通過(guò)拉格朗日乘子法將其轉(zhuǎn)換為對(duì)偶問(wèn)題進(jìn)行求解。式
          對(duì)應(yīng)的拉格朗日函數(shù)為
          類似2.4節(jié),為了求得對(duì)偶問(wèn)題的解,我們需要先求得
          對(duì)
          、
          的極小再求對(duì)
          的極大。
          以下兩步和2.4節(jié)幾乎完全一樣,除了最后對(duì)
          的約束條件略有不同。
          (1) 求
          : 將
          分別對(duì)
          求偏導(dǎo)并令為0可得
          將上面三個(gè)式子代入式
          并進(jìn)行類似式
          的推導(dǎo)即得
          注意其中的
          被消去了。
          (2) 求
          對(duì)
          的極大:
          對(duì)
          求極大,也等價(jià)于式
          取負(fù)數(shù)后對(duì)
          求極小,即
          同時(shí)滿足約束條件:
          至此,我們得到了原始最優(yōu)化問(wèn)題
          和對(duì)偶最優(yōu)化問(wèn)題
          、
          。
          類似2.4節(jié)地,假設(shè)我們現(xiàn)在通過(guò)通用的二次規(guī)劃求解方法或者SMO算法求得了
          、
          的最優(yōu)解
          ,則根據(jù)式
          可求得最優(yōu)
          再根據(jù)KKT條件,即
          可求得整個(gè)軟間隔SVM的解,即:
          其中
          需滿足
          。
          對(duì)于任意樣本
          ,若
          ,此樣本點(diǎn)不是支持向量,該樣本對(duì)模型沒(méi)有任何的作用;若
          ,此樣本是一個(gè)支持向量。
          若滿足
          ,進(jìn)一步地,若
          , 由式
          ,即剛好
          ,樣本恰好在最大間隔邊界上;若
          ,有
          ,此時(shí)若
          則該樣本落在最大間隔內(nèi)部,若
          則該樣本落在最大間隔內(nèi)部即被錯(cuò)誤分類。
          如下圖所示。
          圖3.2
          因此,我們有與2.4節(jié)相同的結(jié)論,最優(yōu)超平面只與支持向量有關(guān)而與非支持向量無(wú)關(guān)。

          3.3 懲罰參數(shù) 

          對(duì)于不同懲罰參數(shù)
          ,SVM結(jié)果如下圖所示
          圖 3.3
          再來(lái)看看我們的原始目標(biāo)函數(shù):
          對(duì)于更加一般化的問(wèn)題,可將上述式子抽象成:
          前一項(xiàng)可以理解為“結(jié)構(gòu)風(fēng)險(xiǎn)(structural risk)”,用來(lái)描述所求模型的某些性質(zhì)(SVM就是要求間隔最大);第二項(xiàng)稱為“經(jīng)驗(yàn)風(fēng)險(xiǎn)(empirical risk)”,用來(lái)描述模型與訓(xùn)練數(shù)據(jù)的契合程度(即誤差)。而參數(shù)
          就是用于對(duì)二者的折中,即我們一方面要求模型要滿足某種性質(zhì)另一方面又想使模型與訓(xùn)練數(shù)據(jù)很契合。
          從正則化角度來(lái)講,
          稱為正則化項(xiàng),
          稱為懲罰參數(shù),
          越大即對(duì)誤分類的懲罰越大(要求模型對(duì)訓(xùn)練模型更契合),這可能會(huì)存在過(guò)擬合;
          越小即相對(duì)更加看重正則化項(xiàng),此時(shí)可能存在欠擬合。

          非線性SVM——核技巧

          前面介紹的都是線性問(wèn)題,但是我們經(jīng)常會(huì)遇到非線性的問(wèn)題(例如異或問(wèn)題),此時(shí)就需要用到核技巧(kernel trick)將線性支持向量機(jī)推廣到非線性支持向量機(jī)。需要注意的是,不僅僅是SVM,很多線性模型都可以用核技巧推廣到非線性模型,例如核線性判別分析(KLDA)。

          4.1 核函數(shù)

          如下圖所示,核技巧的基本思路分為兩步:使用一個(gè)變換將原空間的數(shù)據(jù)映射到新空間(例如更高維甚至無(wú)窮維的空間);然后在新空間里用線性方法從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)得到模型。
          圖 4.1
          怎樣映射到特征空間?
          先來(lái)看看核函數(shù)的定義,
          設(shè)
          是輸入空間(歐式空間
          的子集或離散集合),又設(shè)
          是特征空間(希爾伯特空間),如果存在一個(gè)
          的映射
          使得對(duì)所有
          ,函數(shù)
          滿足條件
          則稱
          為核函數(shù),
          為映射函數(shù),式中
          的內(nèi)積。
          通常,直接計(jì)算
          比較容易而通過(guò)
          計(jì)算
          并不容易。而幸運(yùn)的是,在線性支持向量機(jī)的對(duì)偶問(wèn)題中,無(wú)論是目標(biāo)函數(shù)還是決策函數(shù)都只涉及到輸入樣本與樣本之間的內(nèi)積,因此我們不需要顯式地定義映射
          是什么而只需事先定義核函數(shù)
          即可。也就是說(shuō),在核函數(shù)
          給定的情況下,可以利用解線性問(wèn)題的方法求解非線性問(wèn)題的支持向量機(jī),此過(guò)程是隱式地在特征空間中進(jìn)行的。

          4.2 正定核

          由上面的介紹可知,我們只需要定義核函數(shù)就可以了。但是如何不通過(guò)映射
          判斷給定的一個(gè)函數(shù)
          是不是核函數(shù)呢?或者說(shuō),
          需要滿足什么條件才是一個(gè)核函數(shù)。
          通常所說(shuō)的核函數(shù)就是正定核函數(shù),下面不加證明的給出正定核的充要條件,具體證明略顯復(fù)雜,有興趣的可以參考《統(tǒng)計(jì)學(xué)習(xí)方法》。
          設(shè)
          ,
          是定義在
          上的對(duì)稱函數(shù),如果對(duì)任意的
          ,
          對(duì)應(yīng)的Gram矩陣
          是半正定矩陣,則
          是正定核。
          雖然有了上述定義,但是實(shí)際應(yīng)用時(shí)驗(yàn)證
          是否是正定核依然不容易,因此在實(shí)際問(wèn)題中一般使用已有的核函數(shù),下面給出一些常用的核函數(shù)。
          • 多項(xiàng)式核函數(shù)(polynomial kernel function)
          • 高斯核函數(shù)(Guassian kernel function)

          4.3 非線性支持向量機(jī)

          如前4.1、4.2所述,利用核技巧可以很簡(jiǎn)單地把線性支持向量機(jī)擴(kuò)展到非線性支持向量機(jī),只需將線性支持向量機(jī)中的內(nèi)積換成核函數(shù)即可。下面簡(jiǎn)述非線性支持向量機(jī)學(xué)習(xí)算法。
          • 首先選取適當(dāng)?shù)暮撕瘮?shù)
            和適當(dāng)?shù)膮?shù)
            ,構(gòu)造最優(yōu)化問(wèn)題
          • 再利用現(xiàn)成的二次規(guī)劃問(wèn)題求解算法或者SMO算法求得最優(yōu)解
            。
          • 選擇
            的一個(gè)滿足
            的分量
            ,計(jì)算
          • 構(gòu)造決策函數(shù):

          總結(jié)

          任何算法都有其優(yōu)缺點(diǎn),支持向量機(jī)也不例外。
          支持向量機(jī)的優(yōu)點(diǎn)是:
          1. 由于SVM是一個(gè)凸優(yōu)化問(wèn)題,所以求得的解一定是全局最優(yōu)而不是局部最優(yōu)。
          2. 不僅適用于線性線性問(wèn)題還適用于非線性問(wèn)題(用核技巧)。
          3. 擁有高維樣本空間的數(shù)據(jù)也能用SVM,這是因?yàn)閿?shù)據(jù)集的復(fù)雜度只取決于支持向量而不是數(shù)據(jù)集的維度,這在某種意義上避免了“維數(shù)災(zāi)難”。
          4. 理論基礎(chǔ)比較完善(例如神經(jīng)網(wǎng)絡(luò)就更像一個(gè)黑盒子)。
          支持向量機(jī)的缺點(diǎn)是:
          1. 二次規(guī)劃問(wèn)題求解將涉及m階矩陣的計(jì)算(m為樣本的個(gè)數(shù)), 因此SVM不適用于超大數(shù)據(jù)集。(SMO算法可以緩解這個(gè)問(wèn)題)
          2. 只適用于二分類問(wèn)題。(SVM的推廣SVR也適用于回歸問(wèn)題;可以通過(guò)多個(gè)SVM的組合來(lái)解決多分類問(wèn)題)
          作者|SMON   
          鏈接|https://www.zhihu.com/people/tang-shu-sen-77
          整理  | 數(shù)據(jù)STUDIO
          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
          打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          面試 | SVM 高頻面試題
          從超平面到SVM(二)
          機(jī)器學(xué)習(xí)-支持向量機(jī)SVM
          【原創(chuàng)】支持向量機(jī)原理(一) 線性支持向量機(jī)
          SVM支持向量機(jī)
          理解支持向量機(jī)(SVM)
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服