對(duì)于新手來說,人工智能的機(jī)器學(xué)習(xí)算法似乎過于枯燥和復(fù)雜。在某種程度上,這是事實(shí)。但是在大多數(shù)情況下,學(xué)員會(huì)偶然發(fā)現(xiàn)每種算法只有幾頁的描述。這讓學(xué)員很難找到時(shí)間和精力來處理每個(gè)細(xì)節(jié)。但是,如果真的希望成為機(jī)器學(xué)習(xí)算法的專家,則必須掌握有關(guān)頂級(jí)機(jī)器學(xué)習(xí)算法的知識(shí),而且沒有其他捷徑可以走。今天將嘗試簡(jiǎn)化此任務(wù),解釋10種最常見頂級(jí)機(jī)器學(xué)習(xí)算法的核心原理。
1.線性回歸:最初是在統(tǒng)計(jì)中發(fā)展的,用于研究輸入和輸出數(shù)值變量之間的關(guān)系,機(jī)器學(xué)習(xí)社區(qū)已將其用于基于線性回歸方程式進(jìn)行預(yù)測(cè)。
線性回歸的數(shù)學(xué)表示法是一個(gè)線性方程,它結(jié)合了一組特定的輸入數(shù)據(jù)(x),以預(yù)測(cè)該組輸入值的輸出值(y)。線性方程式將系數(shù)分配給每組輸入值,這些值稱為希臘字母Beta(β)表示的系數(shù)。
2.Logistic回歸:在Logistic回歸中,我們的目標(biāo)應(yīng)該是產(chǎn)生一個(gè)離散值1或0。這有助于我們找到一種確定的方案答案。邏輯回歸模型類似于線性回歸來計(jì)算輸入變量的加權(quán)和,但是它通過特殊的非線性函數(shù),邏輯函數(shù)或S形函數(shù)運(yùn)行結(jié)果,以產(chǎn)生輸出y。
3.KNN分類:K最近鄰(KNN)分類的目的是將數(shù)據(jù)點(diǎn)分為不同的類別,以便我們可以基于相似性度量對(duì)它們進(jìn)行分類。
從某種意義上說,KNN可以進(jìn)行學(xué)習(xí),不需要明確的訓(xùn)練階段,而是開始對(duì)由鄰居的多數(shù)投票決定的數(shù)據(jù)點(diǎn)進(jìn)行分類。
將對(duì)象分配給在其k個(gè)最近的鄰居中最常見的類。
4.支持向量機(jī)(SVM):支持向量機(jī)最初用于數(shù)據(jù)分析。最初,一組訓(xùn)練示例被輸入到SVM算法中,屬于一個(gè)或另一個(gè)類別。然后,該算法構(gòu)建一個(gè)模型,該模型開始將新數(shù)據(jù)分配給它在訓(xùn)練階段學(xué)到的類別之一。
在SVM算法中,創(chuàng)建了一個(gè)超平面,該超平面用作類別之間的分界。當(dāng)SVM算法處理一個(gè)新的數(shù)據(jù)點(diǎn)時(shí),根據(jù)它出現(xiàn)的一側(cè),它將被分類為一種類別。
5.決策樹:決策樹基本上是一種樹狀的支持工具,可用于表示原因和結(jié)果。由于一個(gè)原因可能有多種影響,因此我們將其列出。
6.隨機(jī)森林:隨機(jī)森林算法旨在解決決策樹的某些局限性。
隨機(jī)森林由決策樹組成,決策樹是代表決策過程或統(tǒng)計(jì)概率的決策圖。這些多個(gè)樹映射到單個(gè)樹,稱為分類和回歸模型。
7.人工神經(jīng)網(wǎng)絡(luò):在我們追求上帝的過程中,人工神經(jīng)網(wǎng)絡(luò)是我們的最高成就之一。如圖所示,我們已經(jīng)創(chuàng)建了多個(gè)相互連接的節(jié)點(diǎn),它們模仿了我們大腦中的神經(jīng)元。簡(jiǎn)而言之,每個(gè)神經(jīng)元通過另一個(gè)神經(jīng)元接收信息,對(duì)其進(jìn)行工作,然后將其作為輸出傳遞給另一個(gè)神經(jīng)元。
8.K均值聚類:在這種機(jī)器學(xué)習(xí)算法中,目標(biāo)是根據(jù)數(shù)據(jù)點(diǎn)的相似性對(duì)其進(jìn)行標(biāo)記。因此,我們沒有在算法之前定義聚類,而是算法在前進(jìn)時(shí)找到了這些聚類。
一個(gè)簡(jiǎn)單的例子是,根據(jù)足球運(yùn)動(dòng)員的數(shù)據(jù),我們將使用K-means聚類并根據(jù)其相似性對(duì)其進(jìn)行標(biāo)記。因此,即使沒有為算法提供預(yù)定義的標(biāo)簽,這些聚類也可以基于前鋒的偏愛來為任意球或成功的鏟球得分。
K均值聚類將有益于交易者,他們認(rèn)為不同資產(chǎn)之間可能存在表面上看不到的相似之處。
9.樸素貝葉斯定理:現(xiàn)在,如果您還記得基本概率,您會(huì)知道貝葉斯定理是通過以下方式制定的:我們假設(shè)我們對(duì)與前一個(gè)事件相關(guān)的任何事件都有先驗(yàn)知識(shí)。
例如,要檢查您遲到辦公室的可能性,您可能想知道您在途中是否遇到任何交通擁堵。
但是,樸素貝葉斯分類器算法假設(shè)兩個(gè)事件是彼此獨(dú)立的,因此,這在很大程度上簡(jiǎn)化了計(jì)算。最初,NaiveBayes最初只考慮了學(xué)術(shù)練習(xí),但表明它在現(xiàn)實(shí)世界中也表現(xiàn)出色。
樸素貝葉斯算法可用于查找不同參數(shù)之間的簡(jiǎn)單關(guān)系而無需完整的數(shù)據(jù)。
10.遞歸神經(jīng)網(wǎng)絡(luò)(RNN):您知道Siri和GoogleAssistant在其編程中使用RNN嗎?RNN本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò),具有連接到每個(gè)節(jié)點(diǎn)的內(nèi)存,這使得處理順序數(shù)據(jù)變得容易,即一個(gè)數(shù)據(jù)單元取決于前一個(gè)數(shù)據(jù)單元。
一種解釋RNN優(yōu)于常規(guī)神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)的方法是,我們應(yīng)該逐個(gè)字符地處理一個(gè)單詞。如果單詞是“trading”,則正常的神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)會(huì)在移動(dòng)到“d”時(shí)忘記字符“t”,而循環(huán)神經(jīng)網(wǎng)絡(luò)會(huì)記住該字符,因?yàn)樗哂凶约旱挠洃洝?/p>
因此,這些是頂級(jí)的機(jī)器學(xué)習(xí)算法,您將在接下來的時(shí)間重點(diǎn)關(guān)注這些算法。