概要
支持向量機(jī)(英語(yǔ):support vector machine,常簡(jiǎn)稱為SVM,又名支持向量網(wǎng)絡(luò))是在分類與回歸分析中分析數(shù)據(jù)的監(jiān)督式學(xué)習(xí)模型與相關(guān)的學(xué)習(xí)算法。給定一組訓(xùn)練實(shí)例,每個(gè)訓(xùn)練實(shí)例被標(biāo)記為屬于兩個(gè)類別中的一個(gè)或另一個(gè),SVM訓(xùn)練算法創(chuàng)建一個(gè)將新的實(shí)例分配給兩個(gè)類別之一的模型,使其成為非概率二元線性分類器。SVM模型是將實(shí)例表示為空間中的點(diǎn),這樣映射就使得單獨(dú)類別的實(shí)例被盡可能寬的明顯的間隔分開(kāi)。然后,將新的實(shí)例映射到同一空間,并基于它們落在間隔的哪一側(cè)來(lái)預(yù)測(cè)所屬類別。
當(dāng)訓(xùn)練數(shù)據(jù)線性可分時(shí),通過(guò)硬間隔(hard margin,什么是硬、軟間隔下面會(huì)講)最大化可以學(xué)習(xí)得到一個(gè)線性分類器,即硬間隔SVM,如上圖的的H3。
當(dāng)訓(xùn)練數(shù)據(jù)不能線性可分但是可以近似線性可分時(shí),通過(guò)軟間隔(soft margin)最大化也可以學(xué)習(xí)到一個(gè)線性分類器,即軟間隔SVM。
當(dāng)訓(xùn)練數(shù)據(jù)線性不可分時(shí),通過(guò)使用核技巧(kernel trick)和軟間隔最大化,可以學(xué)習(xí)到一個(gè)非線性SVM。
聯(lián)系客服