开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開(kāi)APP
          userphoto
          未登錄

          開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

          開(kāi)通VIP
          給初學(xué)者的機(jī)器學(xué)習(xí)算法入門

          導(dǎo)言

          https://www.toutiao.com/article/7162037201646207521/?log_from=2d9a6dc4d2538_1668002320315

          英國(guó)數(shù)學(xué)家、計(jì)算機(jī)科學(xué)家、邏輯學(xué)家和密碼分析家阿蘭 · 圖靈曾說(shuō),

          “這(機(jī)器學(xué)習(xí))就像一個(gè)學(xué)生從老師那里學(xué)到了很多,同時(shí)通過(guò)自己的工作又增加了很多。當(dāng)這種情況發(fā)生時(shí),我覺(jué)得人們有義務(wù)將機(jī)器視為顯示智能的工具?!?/span>

          舉個(gè)機(jī)器學(xué)習(xí)影響的例子,曼氏集團(tuán)的 AHL 維度計(jì)劃是一個(gè)51億美元的對(duì)沖基金,部分由人工智能管理。到2015年,該基金啟動(dòng)后,其機(jī)器學(xué)習(xí)算法貢獻(xiàn)了該基金一半以上的利潤(rùn),盡管其管理的資產(chǎn)少得多。

          機(jī)器學(xué)習(xí)算法入門

          讀完這篇文章,你將能夠理解一些流行的和令人難以置信的機(jī)器學(xué)習(xí)算法背后的基本邏輯,這些算法已經(jīng)被交易社區(qū)使用,并且作為你創(chuàng)建最好的機(jī)器學(xué)習(xí)算法的基石。他們是:

          • Linear Regression 線性回歸
          • Logistic regression 邏輯回歸
          • KNN Classification K最近鄰(k-Nearest Neighbor)/KNN分類算法
          • Support Vector Machine (SVM) 支持向量機(jī)(SVM)
          • Decision Trees 決策樹(shù)
          • Random Forest 隨機(jī)森林
          • Artificial Neural Network 人工神經(jīng)網(wǎng)絡(luò)ANN
          • K-means Clustering K均值聚類算法(K平均算法)
          • Naive Bayes theorem 樸素貝葉斯定理
          • Recurrent Neural Networks (RNN) 遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

          線性回歸

          統(tǒng)計(jì)學(xué)最初是用來(lái)研究輸入和輸出數(shù)字變量之間的關(guān)系,機(jī)器學(xué)習(xí)社區(qū)采用它來(lái)根據(jù)線性回歸方程進(jìn)行預(yù)測(cè)。

          線性回歸的數(shù)學(xué)表示是一個(gè)線性方程式,它結(jié)合了一組特定的輸入數(shù)據(jù)(x) ,以預(yù)測(cè)該組輸入值的輸出值(y)。線性方程為每組輸入值分配一個(gè)因子,稱為希臘字母 Beta (β)表示的系數(shù)。

          下面提到的方程代表了一個(gè)有兩組輸入值的線性回歸模型,x1和 x2。Y 表示模型的輸出,β0,β1和 β2是線性方程的系數(shù)。

          y = β0 + β1x1 + β2x2

          當(dāng)只有一個(gè)輸入變量時(shí),線性方程表示一條直線。為了簡(jiǎn)單起見(jiàn),考慮 β2等于零,這意味著變量 x2不會(huì)影響線性回歸模型的輸出。在這種情況下,線性回歸將代表一條直線,其方程如下所示。

          y = β0 + β1x1

          線性回歸方程模型的圖表如下所示:

          線性回歸可以用來(lái)找出股票在一段時(shí)間內(nèi)的總體價(jià)格趨勢(shì)。這有助于我們理解價(jià)格的變動(dòng)是正向的還是負(fù)向的。

          邏輯回歸

          在邏輯回歸中,我們的目標(biāo)是產(chǎn)生一個(gè)離散的值,要么是1,要么是0。這有助于我們找到一個(gè)明確的答案,我們的情況。

          邏輯回歸在數(shù)學(xué)上可以表示為:

          邏輯回歸模型計(jì)算輸入變量的加權(quán)和,類似于線性回歸,但是它通過(guò)一個(gè)特殊的非線性函數(shù)運(yùn)行結(jié)果,logistic函數(shù)或sigmoid函數(shù)產(chǎn)生輸出 y。

          sigmoid/logistic函數(shù)由下列方程表示:

          y = 1 / (1+ e-x)

          簡(jiǎn)單來(lái)說(shuō),邏輯回歸模型可以用來(lái)預(yù)測(cè)市場(chǎng)的走向。

          K最近鄰(k-Nearest Neighbor)/KNN分類算法

          K 最近鄰(KNN)分類的目的是將數(shù)據(jù)點(diǎn)分成不同的類,以便根據(jù)相似性度量(如距離函數(shù))對(duì)數(shù)據(jù)點(diǎn)進(jìn)行分類。

          從某種意義上說(shuō),KNN 是邊學(xué)邊做的,它不需要一個(gè)明確的訓(xùn)練階段,而是開(kāi)始對(duì)由鄰居大多數(shù)投票決定的數(shù)據(jù)點(diǎn)進(jìn)行分類。

          對(duì)象被分配到 k 個(gè)最近鄰中最常見(jiàn)的類。

          讓我們考慮一下將一個(gè)綠色圓圈分為類1和類2的任務(wù)。考慮基于1-最近鄰居的 KNN 問(wèn)題。在這種情況下,KNN 將綠色圓圈分類為類1。現(xiàn)在讓我們把最近的鄰居數(shù)增加到3,即3-最近的鄰居。正如你在圖中看到的,在圓圈內(nèi)有兩個(gè)2類對(duì)象和一個(gè)1類對(duì)象。KNN 將綠色圓圈分類為2類對(duì)象,因?yàn)樗纬纱蠖鄶?shù)。

          支持向量機(jī)(SVM)

          支持向量機(jī)最初用于數(shù)據(jù)分析。首先,將一組訓(xùn)練樣本輸入到支持向量機(jī)算法中,這些樣本屬于一個(gè)或另一個(gè)類別。然后,該算法構(gòu)建一個(gè)模型,開(kāi)始將新數(shù)據(jù)分配給它在訓(xùn)練階段學(xué)到的一個(gè)類別。

          在支持向量機(jī)算法中,創(chuàng)建了一個(gè)超平面,用于劃分類別。當(dāng)支持向量機(jī)算法處理一個(gè)新的數(shù)據(jù)點(diǎn),并根據(jù)它出現(xiàn)在哪一邊,它將被分類到一個(gè)類。

          在與交易相關(guān)時(shí),可以建立支持向量機(jī)算法,將股票數(shù)據(jù)分為有利的買入類、賣出類和中性類,然后根據(jù)規(guī)則對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類。

          決策樹(shù)

          決策樹(shù)基本上是一個(gè)類似于樹(shù)的支持工具,可以用來(lái)表示因果關(guān)系。由于一個(gè)原因可能具有多種效果,我們將它們列出來(lái)(就像有分支的樹(shù)一樣)。

          我們可以通過(guò)組織輸入數(shù)據(jù)和預(yù)測(cè)變量,并根據(jù)我們將指定的一些標(biāo)準(zhǔn)來(lái)構(gòu)建決策樹(shù)。

          構(gòu)建決策樹(shù)的主要步驟是:

          • 檢索金融工具的市場(chǎng)數(shù)據(jù)
          • 引入預(yù)測(cè)變量(即技術(shù)指標(biāo)、情緒指標(biāo)、廣度指標(biāo)等)
          • 設(shè)置 Target 變量或所需的輸出
          • 在訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)之間分割數(shù)據(jù)
          • 生成決策樹(shù)訓(xùn)練模型
          • 測(cè)試和分析模型

          決策樹(shù)的缺點(diǎn)是,由于其固有的設(shè)計(jì)結(jié)構(gòu),它們?nèi)菀走^(guò)度擬合。

          隨機(jī)森林

          設(shè)計(jì)了一種隨機(jī)森林算法來(lái)解決決策樹(shù)的一些局限性。

          隨機(jī)森林由決策樹(shù)組成,決策樹(shù)是表示決策過(guò)程或統(tǒng)計(jì)概率的決策圖。這些多個(gè)樹(shù)被映射到一個(gè)單一的樹(shù),這是所謂的分類和回歸(CART)模型。

          為了根據(jù)對(duì)象的屬性對(duì)其進(jìn)行分類,每棵樹(shù)都給出了一個(gè)分類,即對(duì)該類進(jìn)行“投票”。然后森林以最多的票數(shù)選擇分類。對(duì)于回歸,它考慮了不同樹(shù)的輸出的平均值。

          隨機(jī)森林的工作方式如下:

          • 假設(shè)病例數(shù)為 N,從這 N 個(gè)病例中抽取一個(gè)樣本作為訓(xùn)練集。
          • 考慮 M 是輸入變量的個(gè)數(shù),選擇一個(gè)數(shù) m 使得 m < M。M 和 M 之間的最佳分割用于分割節(jié)點(diǎn)。當(dāng)樹(shù)生長(zhǎng)時(shí),m 的值保持不變。
          • 每棵樹(shù)都盡可能地長(zhǎng)大。
          • 通過(guò)聚合 n 棵樹(shù)的預(yù)測(cè)(例如,多數(shù)選擇分類,平均選擇回歸) ,預(yù)測(cè)新的數(shù)據(jù)。

          人工神經(jīng)網(wǎng)絡(luò)ANN

          在我們扮演上帝視角的過(guò)程中,人工神經(jīng)網(wǎng)絡(luò)是我們最偉大的成就之一。我們已經(jīng)創(chuàng)建了多個(gè)相互連接的節(jié)點(diǎn),如圖所示,它模仿了我們大腦中的神經(jīng)元。簡(jiǎn)單地說(shuō),每個(gè)神經(jīng)元通過(guò)另一個(gè)神經(jīng)元接收信息,對(duì)其進(jìn)行工作,并將其轉(zhuǎn)移到另一個(gè)神經(jīng)元作為輸出。

          每個(gè)圓形節(jié)點(diǎn)代表一個(gè)人工神經(jīng)元,箭頭代表從一個(gè)神經(jīng)元的輸出到另一個(gè)神經(jīng)元的輸入的連接。

          如果我們使用神經(jīng)網(wǎng)絡(luò)來(lái)發(fā)現(xiàn)不同資產(chǎn)類別之間的相互依賴關(guān)系,而不是試圖預(yù)測(cè)買入或賣出的選擇,那么神經(jīng)網(wǎng)絡(luò)可能會(huì)更有用。

          k均值聚類算法(K平均算法)

          在這種機(jī)器學(xué)習(xí)算法中,目標(biāo)是根據(jù)數(shù)據(jù)點(diǎn)的相似性進(jìn)行標(biāo)記。因此,我們沒(méi)有在算法之前定義這些聚類,而是在算法前進(jìn)時(shí)找到這些聚類。

          一個(gè)簡(jiǎn)單的例子是,我們會(huì)根據(jù)足球運(yùn)動(dòng)員的數(shù)據(jù),使用 K平均算法,并根據(jù)他們的相似性給他們貼上標(biāo)簽。因此,這些集群可以基于前鋒偏好得分的任意球或成功鏟球,即使算法沒(méi)有給予預(yù)先定義的標(biāo)簽開(kāi)始。

          對(duì)于那些認(rèn)為不同資產(chǎn)之間可能存在表面上看不到的相似之處的交易員來(lái)說(shuō),K平均算法是有利的。

          樸素貝葉斯定理

          現(xiàn)在,如果你們還記得基本概率,你們就會(huì)知道貝葉斯定理,是以這樣一種方式表述的,我們假設(shè)我們已經(jīng)事先知道,任何與前一事件相關(guān)的事件。

          例如,為了檢查你到辦公室遲到的可能性,人們想知道你在路上是否遇到交通堵塞。

          然而,樸素貝葉斯分類器算法假設(shè)兩個(gè)事件是相互獨(dú)立的,因此,這在很大程度上簡(jiǎn)化了計(jì)算。這最初只是一個(gè)學(xué)術(shù)練習(xí),樸素貝葉斯已經(jīng)表明,它在現(xiàn)實(shí)世界中也能非常好的工作。

          樸素貝葉斯算法可以在不需要完整數(shù)據(jù)的情況下找到不同參數(shù)之間的簡(jiǎn)單關(guān)系。

          遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

          你知道 Siri,谷歌助理在他們的程序中使用 RNN 嗎?神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò),它在每個(gè)節(jié)點(diǎn)上都有一個(gè)記憶體,這使得順序數(shù)據(jù)的處理變得容易,也就是說(shuō),一個(gè)數(shù)據(jù)單元依賴于前一個(gè)數(shù)據(jù)單元。

          一種解釋 RNN 優(yōu)于普通神經(jīng)網(wǎng)絡(luò)的方法是,我們應(yīng)該逐個(gè)字符地處理單詞。如果單詞是“交易”,一個(gè)正常的神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)會(huì)在移動(dòng)到“ d”時(shí)忘記字符“ t”,而遞歸神經(jīng)網(wǎng)絡(luò)會(huì)記住這個(gè)字符,因?yàn)樗凶约旱挠洃洝?/span>

          結(jié)論

          Preqin(一家位于倫敦的私人投資數(shù)據(jù)公司)的一項(xiàng)研究顯示,已知有1360只定量基金在交易過(guò)程中使用計(jì)算機(jī)模型,占所有基金的9% 。如果一個(gè)人的機(jī)器學(xué)習(xí)策略在測(cè)試階段能夠賺錢,公司就會(huì)為其組織現(xiàn)金獎(jiǎng)勵(lì),事實(shí)上,公司會(huì)投資自己的錢,并在實(shí)時(shí)交易階段獲得獎(jiǎng)勵(lì)。因此,為了在競(jìng)爭(zhēng)中領(lǐng)先一步,每個(gè)人,無(wú)論是數(shù)十億美元的對(duì)沖基金還是個(gè)人交易,都在努力理解并在交易策略中實(shí)施機(jī)器學(xué)習(xí)。

          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          要學(xué)習(xí)機(jī)器學(xué)習(xí),先從這十大算法開(kāi)始吧
          十種機(jī)器學(xué)習(xí)算法的預(yù)測(cè)分析
          推送!10大主流AI模型適用盤點(diǎn)
          數(shù)據(jù)科學(xué)家最常用的十大機(jī)器學(xué)習(xí)算法
          深入解析機(jī)器學(xué)習(xí)算法有哪些?
          曼孚科技:AI算法領(lǐng)域常用的39個(gè)術(shù)語(yǔ)(上)
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服