問題 2.8 最小平方法回歸與最大概似估計 (Least-squares regression and MLE)
在這個問題中,我們將探討線性回歸 (Linear Regression) 的議題,以及最大概似估計 (Maximum Likelihood Estimation) 與最小平方解 (Least Squares Solutions) 之間的關聯。考慮 x∈R 的多項式函數,
f(x,θ)=k=0∑Kxkθk=ϕ(x)Tθ(2.7)
其中我們定義特徵轉換 (Feature Transformation) ϕ(x) 以及參數向量 θ(兩者的維度皆為 D=K+1)為:
ϕ(x)=[1,x,x2,⋯,xK]T∈RD,θ=[θ0,⋯,θK]T∈RD.(2.8)
給定一個輸入 x,我們並非觀察到實際的函數值 f(x,θ),而是觀察到包含雜訊的版本 y,
y=f(x,θ)+ϵ(2.9)
其中 ϵ 是一個具有零平均值 (Zero Mean) 和變異數 (Variance) σ2 的高斯隨機變數 (Gaussian Random Variable)。我們的目標是在給定獨立同分布 (i.i.d.) 的樣本 D={(x1,y1),…,(xn,yn)} 的情況下,獲得該函數的最佳估計。
(a) 將此問題公式化為最小平方法 (Least Squares) 問題,亦即定義
y=y1⋮yn,Φ=[ϕ(x1),⋯,ϕ(xn)]=1x11⋮x1K⋯…⋱⋯1xn1⋮xnK(2.10)
並找出使誤差平方和 (Sum-Squared-Error) 最小的 θ 值:
i=1∑n(yi−ϕ(xi)Tθ)2=∥y−ΦTθ∥2.(2.11)