Skip to main content

Explain ZH

直覺理解

想像一下,你正試圖將一個新的數據點 xx 分類到幾個類別中的一個。為了做出最佳決策,你想為每個類別計算一個「分數」,然後簡單地選擇分數最高的那個。

這個問題表明,當所有類別的數據分佈方式完全相同時(它們共享相同的「形狀」或協方差矩陣 Σ\Sigma),計算這個分數會變得出奇地簡單!

我們不需要處理高斯分佈複雜的鐘形曲線公式,數學推導會簡化成一個基本的直線方程式: gj(x)=wjTx+bjg_j(x) = w_j^T x + b_j

以下是這個簡單方程式兩個部分的含義:

  1. 權重 (wjw_j):可以把 wjw_j 想像成類別 jj 的「模板」。它指向類別 jj 的中心 (μj\mu_j) 的方向,但會根據數據的形狀 (Σ1\Sigma^{-1}) 進行調整。當你計算 wjTxw_j^T x 時,你基本上是在測量你的新數據點 xx 與這個模板的契合程度。xx 越接近類別 jj 的中心,這部分的分數就越高。
  2. 偏差 (bjb_j):這是分數的基準調整。它有兩個作用:
    • 距離懲罰12μjTΣ1μj-\frac{1}{2} \mu_j^T \Sigma^{-1} \mu_j 這一項會懲罰那些中心距離原點非常遠的類別。
    • 受歡迎程度獎勵logπj\log \pi_j 這一項會給予整體上更常見的類別(較高的先驗機率 πj\pi_j)一個分數提升。如果你不確定,猜測更受歡迎的類別會更安全!

總而言之,因為所有類別的數據「形狀」都相同,複雜的高斯數學計算會互相抵消,留給我們一個簡單、優雅的線性評分系統。