機器學習中常見的10種演算法

KevinLuo
Sep 18, 2021

--

終於到了中秋連假,但不幸的是, 我們正共同面對著COVID-19的疫情。

不如, 大家就乖乖地待在家看我的Medium如何?可以長知識唷~

進入正題吧,本人在中秋佳節這幾天連假想要一天寫一篇文章。

OK Let’s get started!

Question : 在機器學習中最常見的基礎演算法有哪些?

Answer : OK, 這題我會列出最常在機器學習上用的幾個演算法, 並且概述它。

1. 線性回歸演算法:

線性迴歸(Linear Regression)演算法屬於有監督的迴歸(Regression)學習演算法。迴歸(Regression)演算法通過建立變數之間的迴歸模型,通過學習(訓練)過程得到變數與因變數之間的相關關係。迴歸(Regression)分析可以用於預測模型或分類模型。

線性回歸的視覺化,平面內有一系列點,尋找出一條最能擬合資料趨勢分布的線用來預測新的資料出現的位置

2. 分類演算法

透過機器學習分類演算法判斷出想要預測的值是屬於哪一類。

3.正規化方法:

資料的正規化(Normalization)是將原始資料的數據按比例縮放於 [0, 1] 區間中,且不改變其原本分佈。舉例來說,若我們現有兩組數據資料,分別表示 500 項商品的銷售量 Sample 1 及銷售額 Sample 2,如下圖所示,很明顯地,此兩組資料的單位不同,且數字上有著懸殊的差異,分別透過資料正規化後,兩組資料將同時轉換成純量縮放於 [0,1] 區間中,如下右圖所示;這樣的資料轉換,能排除資料單位的限制,提供我們一個相同的基準來進行後續比較分析。

4.決策樹學習:

透過一次又一次的Yes or No階段來選出最終答案。

5. 貝氏方法

貝氏定理是關於隨機事件A和B的條件機率的一則定理。

貝氏定理公式
貝氏定理的二維可視化圖像,圖中闡釋了事件A、事件B以及他們之間的關係。(from維基百科)

6. 基於核(kernel-based)的演算法:

核函數是將線性不可分的特徵映射到高維特徵的方法,從而能夠支持向量機算法在這個高維空間中線性可變。

換句話說,也就是使用核函數可以向高維空間映射並解決變形的分類問題。

原本難分類的問題,映射到高維後就可以輕易找到分類超平面

7. 分群演算法:

屬於非監督是機器學習演算法,可將相似的資料點進行分群。

紅 綠 藍代表不同的三群已被分之

8. 連結規則學習:

關聯規則學習Association rule learning)是一種在大型資料庫中發現變數之間的有趣性關係的方法。它的目的是利用一些有趣性的量度來辨識資料庫中發現的強規則。

9.類神經網路,深度學習:

10. 降維 (Dimension Reduction):

通過降維演算法將,在資料不失太多資訊的情況下,大將降低其需要的計算量。

經典的方法有: LDA和PCA

從高維度的空間資料壓縮到平面上,達到降維(Dimension Reduction)

當然,機器學習的演算法不只以上這些。在這邊我只是列出一些基礎且常用到的演算法,替大家做一個歸納的參考。

下次我要寫的題目是:企業面試高機率會考的機器學習問題。

題目中有些是我在人工智慧學校第九期經理人班的學長姐們所給的一些問題,他們都有面試過AI工程師的經驗。

有些是我自己在面試過程中遇到過的題目。

請大家拭目以待! 我是Kevin

See you tomorrow!

--

--

KevinLuo

知曉很多種資料處理,可BI或AI化的軟體和工具。主要用的程式語言是python和R 偶爾用C++ Ig:(可在上面找到我) AIA第九屆經理人班 立志當個厲害的podcaster!