基於 問題 1.6 (d) 的推導,這是一個關於我們如何從特徵值得到完整矩陣分解 Σ=VΛVT 的詳細細分說明。
1. 從向量到矩陣
最常見的困惑部分是從單個向量方程式移動到完整的矩陣方程式。
我們從特徵向量 vi 和特徵值 λi 的定義開始:
Σvi=λivi
如果我們有 d 個特徵向量 (v1,...,vd),我們可以使用矩陣乘法將它們並排寫出。
左側 (ΣV):
當你將一個矩陣 Σ 乘以一個矩陣 V(其中 V 由列向量 v1,...,vd 組成),結果僅僅是 Σ 分別與每一列相乘:
ΣV=Σ∣v1∣…∣vd∣=∣Σv1∣…∣Σvd∣
因為 Σvi=λivi,我們可以替換這些列:
=∣λ1v1∣…∣λdvd∣
右側 (VΛ):
現在看看 VΛ。如果你將一個矩陣 V 在右側乘以一個 對角 矩陣 Λ,它會按相應的對角元素縮放 V 的每一 列:
∣v1∣…∣vd∣λ10⋱0λd=∣λ1v1∣…∣λdvd∣
結論:
由於這些列完全匹配,我們證明了:
ΣV=VΛ
2. 為什麼 V 是正交的 (VT=V−1)
問題指出 Σ 是一個 協方差矩陣。
- 協方差矩陣總是 對稱的 (Σ=ΣT)。
- 線性代數中的一個關鍵定理(譜定理)指出 對稱矩陣總是有正交的特徵向量。
這意味著任何兩個不同特徵向量的點積為 0,並且我們將它們歸一化使得它們的長度為 1:
viTvj=0 (若 i=j),viTvi=1
在矩陣形式中,計算 VTV:
VTV=−v1T−⋮−vdT−∣v1∣…∣vd∣=10⋮01⋮……⋱=I
因為 VTV=I,根據定義 VT 是 V 的逆矩陣。
3. 求解 Σ
現在我們只需重新排列代數式:
- 從這裡開始:ΣV=VΛ
- 兩邊同時右乘 VT:
ΣVVT=VΛVT
- 因為 VVT=I,左邊的 V 被消去:
Σ=VΛVT
幾何解釋
這個方程式告訴我們,任何協方差矩陣都可以被認為是:
- 旋轉 空間以與數據的軸對齊 (VT)。
- 根據方差沿這些軸 拉伸 (Λ)。
- 旋轉回 原始方向 (V)。