国产日韩欧美久久久精品图片|国产综合有码无码中文字幕|国产一区二区综合视频|国产亚洲精品电影网站在线观看|国产精品一区在线

機(jī)械社區(qū)

 找回密碼
 注冊(cè)會(huì)員

QQ登錄

只需一步,快速開(kāi)始

搜索
查看: 2906|回復(fù): 6
打印 上一主題 下一主題

干貨 | 這些機(jī)器學(xué)習(xí)算法,你了解幾個(gè)?

[復(fù)制鏈接]
跳轉(zhuǎn)到指定樓層
1#
發(fā)表于 2019-10-1 08:03:50 | 只看該作者 回帖獎(jiǎng)勵(lì) |倒序?yàn)g覽 |閱讀模式
本帖最后由 davyhero4 于 2019-10-1 08:05 編輯 : D9 E. }/ ?9 B

$ c* L+ l, b/ D% P# n  G3 V$ e9 {4 `% M
機(jī)器學(xué)習(xí)算法的分類(lèi)是棘手的,有幾種合理的分類(lèi),他們可以分為生成/識(shí)別,參數(shù)/非參數(shù),監(jiān)督/無(wú)監(jiān)督等。
例如,Scikit-Learn的文檔頁(yè)面通過(guò)學(xué)習(xí)機(jī)制對(duì)算法進(jìn)行分組。這產(chǎn)生類(lèi)別如:1,廣義線性模型,2,支持向量機(jī),3,最近鄰居法,4,決策樹(shù),5,神經(jīng)網(wǎng)絡(luò),等等…
但是,從我們的經(jīng)驗(yàn)來(lái)看,這并不總是算法分組最為實(shí)用的方法。那是因?yàn)閷?duì)于應(yīng)用機(jī)器學(xué)習(xí),你通常不會(huì)想,“今天我要訓(xùn)練一個(gè)支持向量機(jī)!”相反,你心里通常有一個(gè)最終目標(biāo),如利用它來(lái)預(yù)測(cè)結(jié)果或分類(lèi)觀察。
所以在機(jī)器學(xué)習(xí)中,有一種叫做“沒(méi)有免費(fèi)的午餐”的定理。簡(jiǎn)而言之,它的意思就是說(shuō)沒(méi)有任何一種算法可以完美地解決每個(gè)問(wèn)題,這對(duì)于監(jiān)督式學(xué)習(xí)(即預(yù)測(cè)性建模)尤其重要。
例如,你不能說(shuō)神經(jīng)網(wǎng)絡(luò)總是比決策樹(shù)好,反之亦然。有很多因素在起作用,比如數(shù)據(jù)集的大小和結(jié)構(gòu)。因此,您應(yīng)該為您的問(wèn)題嘗試許多不同的算法,同時(shí)使用數(shù)據(jù)的“測(cè)試集”來(lái)評(píng)估性能并選擇優(yōu)勝者。
當(dāng)然,你嘗試的算法必須適合你的問(wèn)題,這就是選擇正確的機(jī)器學(xué)習(xí)算法的重要性之所在。打個(gè)比方,如果你需要清理你的房子,你可以使用真空吸塵器,掃帚或拖把,但是你不會(huì)拿出一把鏟子然后開(kāi)始挖掘。
因此,我們想要介紹另一種分類(lèi)算法的方法,即通過(guò)機(jī)器學(xué)習(xí)所負(fù)責(zé)的任務(wù)來(lái)分類(lèi)。
機(jī)器學(xué)習(xí)的任務(wù)
1.回歸
回歸是一種用于建模和預(yù)測(cè)連續(xù)數(shù)值變量的監(jiān)督學(xué)習(xí)任務(wù)。例如預(yù)測(cè)房地產(chǎn)價(jià)格,股價(jià)變動(dòng)或?qū)W生考試分?jǐn)?shù)。
回歸任務(wù)的特征是具有數(shù)字目標(biāo)變量的標(biāo)記數(shù)據(jù)集。換句話說(shuō),對(duì)于每個(gè)可用于監(jiān)督算法的觀察結(jié)果,您都有一些“基于事實(shí)”的數(shù)值。
1.1。(正則化)線性回歸
線性回歸是回歸任務(wù)中最常用的算法之一。它最簡(jiǎn)單的形式是試圖將一個(gè)直的超平面整合到你的數(shù)據(jù)集中(即當(dāng)你只有兩個(gè)變量的時(shí)候,你只能得到一條直線)。正如您可能猜到的那樣,當(dāng)數(shù)據(jù)集的變量之間存在線性關(guān)系時(shí),它的效果是非常好的。
實(shí)際上,簡(jiǎn)單的線性回歸經(jīng)常被正則化的同類(lèi)算法(LASSO,Ridge和Elastic-Net)所忽略。正則化是一種懲罰大系數(shù)的技術(shù),以避免過(guò)度擬合,它應(yīng)該調(diào)整其懲罰的力度。
優(yōu)點(diǎn):線性回歸可以直觀地理解和解釋,并且可以正則化以避免過(guò)度擬合。另外,使用隨機(jī)梯度下降的新數(shù)據(jù)可以很容易地更新線性模型。
缺點(diǎn):當(dāng)存在非線性關(guān)系時(shí),線性回歸表現(xiàn)不佳。它們本身并不具有足夠的靈活性來(lái)捕捉更為復(fù)雜的模式,對(duì)于添加正確的交互作用項(xiàng)或者多項(xiàng)式來(lái)說(shuō)可能會(huì)非常棘手和耗時(shí)。
實(shí)現(xiàn):Python/ R
1.2。回歸樹(shù)(集成)
回歸樹(shù)(決策樹(shù)的一種)是通過(guò)將數(shù)據(jù)集反復(fù)分割成單獨(dú)的分支來(lái)實(shí)現(xiàn)分層化學(xué)習(xí),從而最大化每個(gè)分割信息的增益效果。這種分支結(jié)構(gòu)允許回歸樹(shù)自然地學(xué)習(xí)非線性關(guān)系。
隨機(jī)森林(RF)和梯度增強(qiáng)樹(shù)(GBM)等集成方法結(jié)合了許多單獨(dú)樹(shù)的特性。我們不會(huì)在這里介紹他們的基本機(jī)制,但是在實(shí)踐中,隨機(jī)森林通常表現(xiàn)地非常好,而梯度增強(qiáng)樹(shù)則很難調(diào)整,但是后者往往會(huì)有更高的性能上限。
優(yōu)點(diǎn):回歸樹(shù)可以學(xué)習(xí)非線性關(guān)系,并且對(duì)異常值相當(dāng)敏銳。在實(shí)踐中,回歸樹(shù)也表現(xiàn)地非常出色,贏得了許多經(jīng)典(即非深度學(xué)習(xí))的機(jī)器學(xué)習(xí)比賽。
缺點(diǎn):無(wú)約束的單個(gè)樹(shù)很容易過(guò)擬合,因?yàn)樗鼈兛梢员3址种е钡剿鼈冇涀×怂械挠?xùn)練數(shù)據(jù)。但是,這個(gè)問(wèn)題可以通過(guò)使用集成的方式來(lái)緩解。
實(shí)現(xiàn):隨機(jī)森林 - Python / R,梯度增強(qiáng)樹(shù) - Python / R
1.3。深度學(xué)習(xí)
深度學(xué)習(xí)是指能學(xué)習(xí)極其復(fù)雜模式的多層神經(jīng)網(wǎng)絡(luò)。他們使用輸入和輸出之間的“隱藏層”來(lái)模擬其他算法難以學(xué)習(xí)的數(shù)據(jù)中介碼。
他們有幾個(gè)重要的機(jī)制,如卷積和丟棄,使他們能夠有效地從高維數(shù)據(jù)中學(xué)習(xí)。然而,與其他算法相比,深度學(xué)習(xí)仍然需要更多的數(shù)據(jù)來(lái)訓(xùn)練,因?yàn)檫@些模型需要更多的參數(shù)來(lái)實(shí)現(xiàn)其更準(zhǔn)確的推測(cè)。
優(yōu)點(diǎn):深度學(xué)習(xí)是在諸如計(jì)算機(jī)視覺(jué)和語(yǔ)音識(shí)別等領(lǐng)域內(nèi),目前可以被利用的最先進(jìn)的方法。深度神經(jīng)網(wǎng)絡(luò)在圖像,音頻和文本數(shù)據(jù)上表現(xiàn)地非常出色,可以輕松地使用成批量的傳播方法來(lái)更新數(shù)據(jù)。它的體系結(jié)構(gòu)(即層的數(shù)量和結(jié)構(gòu))可以適應(yīng)許多類(lèi)型的問(wèn)題,并且它們的隱藏層減少了對(duì)特征工程的需要。
缺點(diǎn):深度學(xué)習(xí)算法不適合作為通用算法,因?yàn)樗鼈冃枰罅康臄?shù)據(jù)。事實(shí)上,對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)問(wèn)題,它們的表現(xiàn)通常遜色于決策樹(shù)。另外,它們需要密集型的計(jì)算訓(xùn)練,而且需要更多的專業(yè)知識(shí)來(lái)做調(diào)試(即設(shè)置架構(gòu)和超參數(shù))。
實(shí)現(xiàn):Python/ R
1.4。特別提及:最近鄰居法
最近鄰居算法是“基于實(shí)例的”,這意味著它會(huì)保存每個(gè)訓(xùn)練觀察的結(jié)果。然后,通過(guò)搜索最相似的訓(xùn)練觀察值并匯集結(jié)果,來(lái)預(yù)測(cè)新的觀測(cè)值。
這些算法是內(nèi)存密集型的,對(duì)于高維度數(shù)據(jù)的表現(xiàn)不佳,并且需要有意義的距離函數(shù)來(lái)計(jì)算相似度。在實(shí)踐中,訓(xùn)練正則化回歸或決策樹(shù)可能會(huì)更節(jié)省你的時(shí)間。
2.分類(lèi)
分類(lèi)是建模和預(yù)測(cè)分類(lèi)變量的監(jiān)督學(xué)習(xí)任務(wù)。例如預(yù)測(cè)員工的流失,垃圾郵件,財(cái)務(wù)欺詐或者學(xué)生信件等級(jí)。
如你所見(jiàn),許多回歸算法都有分類(lèi)對(duì)應(yīng)。這種算法適用于預(yù)測(cè)類(lèi)(或類(lèi)概率)而不是實(shí)數(shù)類(lèi)。
9 K, }9 X: \2 }$ Y; Q
2.1。(正則化的)邏輯回歸
邏輯回歸是線性回歸的分類(lèi)對(duì)應(yīng)。它預(yù)測(cè)被映射到介于0和1之間的邏輯函數(shù),這意味著預(yù)測(cè)可以被解釋為類(lèi)概率。
模型本身仍然是“線性的”,所以當(dāng)你的類(lèi)是線性可分的(即它們可以被一個(gè)單一的決策表面分開(kāi))時(shí)候,邏輯回歸算法十分有效。邏輯回歸也可以通過(guò)具有可調(diào)懲罰強(qiáng)度的系數(shù)來(lái)實(shí)現(xiàn)正則化。
優(yōu)點(diǎn):數(shù)據(jù)的輸出有一個(gè)很好的概率解釋,算法可以正則化以避免過(guò)度擬合。邏輯回歸可以使用隨機(jī)梯度下降的方法使得新數(shù)據(jù)的更新變得更為輕松。
缺點(diǎn):當(dāng)存在多個(gè)或非線性的決策邊界時(shí),邏輯回歸往往表現(xiàn)不佳。它不夠靈活,無(wú)法自然地捕捉到更復(fù)雜的關(guān)系。
實(shí)現(xiàn):Python/ R
2.2。分類(lèi)樹(shù)(集成)
分類(lèi)樹(shù)是回歸樹(shù)的分類(lèi)對(duì)應(yīng)算法。它們倆被統(tǒng)稱為“決策樹(shù)”,或者被稱為“分類(lèi)和回歸樹(shù)(CART)”。
優(yōu)點(diǎn):與回歸樹(shù)一樣,集成分類(lèi)樹(shù)在實(shí)踐中的表現(xiàn)也很好。它們對(duì)于異常值的控制是可靠的和可擴(kuò)展的,并且由于它們的層次結(jié)構(gòu),能夠自然地對(duì)非線性決策邊界進(jìn)行建模。
缺點(diǎn):不受約束的單個(gè)樹(shù)容易過(guò)度擬合,但是這可以通過(guò)集成方法來(lái)緩解。
實(shí)現(xiàn):隨機(jī)森林 - Python / R,梯度增強(qiáng)樹(shù) - Python / R
2.3。深度學(xué)習(xí)
延續(xù)其一貫的趨勢(shì),深度學(xué)習(xí)也很容易適應(yīng)分類(lèi)問(wèn)題。實(shí)際上,深度學(xué)習(xí)往往是分類(lèi)中比較常用的方法,比如在圖像分類(lèi)中。
優(yōu)點(diǎn):在分類(lèi)音頻,文本和圖像數(shù)據(jù)時(shí),深度學(xué)習(xí)表現(xiàn)地非常出色。
缺點(diǎn):與回歸一樣,深度神經(jīng)網(wǎng)絡(luò)需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,所以它不被視為通用算法。
實(shí)現(xiàn):Python的/ R
2.4。支持向量機(jī)
支持向量機(jī)(SVM)使用稱為核心(kernels)的機(jī)制,它計(jì)算兩個(gè)觀察對(duì)象之間的距離。隨后支持向量機(jī)算法找到一個(gè)決策邊界,最大化不同類(lèi)別的最近成員之間的距離。
例如,具有線性內(nèi)核的支持向量機(jī)類(lèi)似于邏輯回歸。因此,在實(shí)踐中,支持向量機(jī)的好處通常來(lái)自于使用非線性的內(nèi)核來(lái)建模一種非線性的決策邊界。
優(yōu)點(diǎn):支持向量機(jī)可以模擬非線性決策邊界,并有許多內(nèi)核可供選擇。它們對(duì)于過(guò)度擬合的控制力也相當(dāng)強(qiáng)大,特別是在高維空間。
缺點(diǎn):然而,支持向量機(jī)是難以調(diào)整的內(nèi)存密集型算法,而且很依賴于選擇正確的核心,并且不能很好地?cái)U(kuò)展到較大的數(shù)據(jù)集里。目前在行業(yè)中,隨機(jī)森林通常優(yōu)于支持向量機(jī)。
實(shí)現(xiàn):Python/ R
2.5。樸素貝葉斯
樸素貝葉斯(NB)是一個(gè)基于條件概率和計(jì)數(shù)的非常簡(jiǎn)單的算法。從本質(zhì)上講,你的模型實(shí)際上是一個(gè)概率表,通過(guò)你的訓(xùn)練數(shù)據(jù)得到更新。為了預(yù)測(cè)一個(gè)新的觀察結(jié)果,您只需根據(jù)其“特征值”,在“概率表”中查找該類(lèi)的概率。
它被稱為“樸素的”,是因?yàn)樗鼦l件獨(dú)立的核心假設(shè)(即所有輸入特征是相互獨(dú)立的),這在現(xiàn)實(shí)世界中很少成立。
優(yōu)點(diǎn):即使條件獨(dú)立性假設(shè)很少成立,但樸素貝葉斯模型在實(shí)踐中表現(xiàn)得非常出色,特別是它十分簡(jiǎn)單。而且很容易實(shí)現(xiàn),并可以和數(shù)據(jù)集同步擴(kuò)展。
缺點(diǎn):由于其簡(jiǎn)單化的原因,樸素貝葉斯模型經(jīng)常被經(jīng)過(guò)適當(dāng)訓(xùn)練的其他模型和之前已經(jīng)列出的算法吊打。
實(shí)現(xiàn):Python/ R
3.聚類(lèi)
聚類(lèi)是一種無(wú)監(jiān)督的學(xué)習(xí)任務(wù),用于基于數(shù)據(jù)集中的固有結(jié)構(gòu)來(lái)發(fā)現(xiàn)自然的觀測(cè)分組(即聚類(lèi))。例子包括客戶細(xì)分,電子商務(wù)中的類(lèi)似項(xiàng)目分組以及社交網(wǎng)絡(luò)分析。
因?yàn)榫垲?lèi)是無(wú)監(jiān)督的(即沒(méi)有“正確答案”),所以通常使用可視化的數(shù)據(jù)來(lái)評(píng)估結(jié)果。如果有“正確的答案”(即你的訓(xùn)練集中有預(yù)標(biāo)記的聚類(lèi)),那么選擇分類(lèi)算法通常更合適。
3.1。K-Means算法
K-Means算法是一種通用算法,它根據(jù)點(diǎn)之間的幾何距離(即坐標(biāo)平面上的距離)進(jìn)行聚類(lèi)。這些集群圍繞著質(zhì)心分組,使它們成為球形,并具有相似的大小。
對(duì)于初學(xué)者來(lái)說(shuō),這是我們推薦的一種算法,因?yàn)樗芎?jiǎn)單,而且足夠靈活,可以為大多數(shù)問(wèn)題獲得合理的結(jié)果。
優(yōu)點(diǎn):K-Means算法是最流行的聚類(lèi)算法,因?yàn)槿绻腩A(yù)處理數(shù)據(jù)或者編譯有用的功能,它是一種快速,簡(jiǎn)單和擁有令人驚訝的靈活性的一種算法。
缺點(diǎn):用戶必須指定簇的數(shù)目,這并不總是很容易的。另外,如果數(shù)據(jù)中真實(shí)的底層聚類(lèi)不是球狀的,那么K-Means算法將產(chǎn)生錯(cuò)誤的聚類(lèi)。
實(shí)現(xiàn):Python/ R
3.2。近鄰傳播
近鄰傳播是一種相對(duì)較新的聚類(lèi)技術(shù),可以根據(jù)點(diǎn)之間的圖距進(jìn)行聚類(lèi)。集群傾向于變得更小和具有不均勻的大小。
優(yōu)點(diǎn):用戶不需要指定簇的數(shù)量(但是需要指定“樣本偏好”和“阻尼”超參數(shù))。
缺點(diǎn):近鄰傳播的主要缺點(diǎn)是速度很慢,占用內(nèi)存很大,難以擴(kuò)展到較大的數(shù)據(jù)集。另外,它也需要假設(shè)真正的底層集群是球狀的。
實(shí)現(xiàn):Python/ R
3.3。分層/凝聚
分層聚類(lèi),又名聚集聚類(lèi),是基于相同思想的一套算法:(1)從它自己的聚類(lèi)中的每個(gè)點(diǎn)開(kāi)始。(2)對(duì)于每個(gè)簇,根據(jù)一些標(biāo)準(zhǔn)將其與另一個(gè)簇合并。(3)重復(fù),直到只剩下一個(gè)群集,并留下一個(gè)簇的層次結(jié)構(gòu)。
優(yōu)點(diǎn):分層聚類(lèi)的主要優(yōu)點(diǎn)是不會(huì)假設(shè)球體是球狀的。另外,它可以很好地?cái)U(kuò)展到更大的數(shù)據(jù)集里。
缺點(diǎn):就像K-Means算法一樣,用戶必須選擇聚類(lèi)的數(shù)量(即在算法完成之后要保留的層次級(jí)別)。
實(shí)現(xiàn):Python/ R

7 X% f: I, y* @5 b# t$ [( B
回復(fù)

使用道具 舉報(bào)

2#
發(fā)表于 2019-10-1 14:02:28 | 只看該作者
發(fā)這些不太好吧
3#
 樓主| 發(fā)表于 2019-10-1 15:57:04 | 只看該作者
貓咪小新 發(fā)表于 2019-10-1 14:02
8 o5 h; ^4 G# a' i8 x1 }+ ]# b發(fā)這些不太好吧

: d3 J2 }- B/ u行吧,發(fā)點(diǎn)情感類(lèi)的4 J2 h7 I5 l  |% u$ L
4#
發(fā)表于 2019-10-2 11:18:18 | 只看該作者
太復(fù)雜了!看不懂!
5#
發(fā)表于 2019-10-3 11:23:14 | 只看該作者
很高 大 上
回復(fù)

使用道具 舉報(bào)

6#
發(fā)表于 2019-10-23 09:26:43 | 只看該作者
謝謝樓主的慷慨分享哈!
7#
發(fā)表于 2019-10-31 11:49:46 | 只看該作者
太復(fù)雜了。。。
回復(fù)

使用道具 舉報(bào)

本版積分規(guī)則

小黑屋|手機(jī)版|Archiver|機(jī)械社區(qū) ( 京ICP備10217105號(hào)-1,京ICP證050210號(hào),浙公網(wǎng)安備33038202004372號(hào) )

GMT+8, 2025-5-5 13:36 , Processed in 0.076231 second(s), 13 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回復(fù) 返回頂部 返回列表
主站蜘蛛池模板: 国产一区二区av天堂热| 日韩做a爰片久久毛片a片| 九九综合九色综合网站| 精品欧美一区二区三区久久久kl| 久久国产成人精品av| 中文人妻无码一区二区三区在线| 国产日韩精品aⅴ一区二区| 无码国产69精品久久久久孕妇 | 国产激情一区二区三区| av鲁丝一区鲁丝二区鲁丝四区| 久久天天躁狠狠躁夜夜96流白浆| 欧美日本成人一区二区| 亚洲av少妇一区二区| 女人天堂av一区二区| 久久亚洲中文无码咪咪爱| 黑人玩弄人妻一区二区三区 | 欧洲极品少妇| 国产区精品一区二区不卡中文| 国产伦精品一区二区三区视频我 | 黄网站欧美内射| 在线播放免费人成毛片乱码| 成年无码按摩av片在线观看| 99久久精品午夜一区二区| 中文字幕人妻丝袜成熟一区七区| 97超碰国产精品最新| 97亚洲色欲色欲综合网| 小12箩利洗澡无码视频网站| 国产一区二区三区在线观看呀| 欧美久久一区二区精品| 狠狠躁天天躁中文字幕无码| 欧美交换配乱吟粗大25p| 欧美日韩欧美一区二区| 国产专区一区二区在线| 综合色区亚洲熟妇另类| 国产成人无码av在线影院| 亚洲国产日韩欧美高清片| 丝袜无码专区人妻视频| 亚洲中文自拍另类av片| 国产日产韩国精品视频| 天天av天天翘天天综合网色鬼| 天堂资源中文最新版在线一区|