-
構建預測分佈:給定資料 D 的情況下,新觀察值 x 的預測分佈需要使用 π 的後驗分佈對未知的參數 π 進行積分。
p(x∣D)=∫01p(x∣π)p(π∣D)dπ
-
代入已知方程式:
- p(x∣π)=πx(1−π)1−x (方程式 3.30)
- p(π∣D)=s!(n−s)!(n+1)!πs(1−π)n−s (方程式 3.33)
p(x∣D)=∫01(πx(1−π)1−x)(s!(n−s)!(n+1)!πs(1−π)n−s)dπ
p(x∣D)=s!(n−s)!(n+1)!∫01πs+x(1−π)n−s+1−xdπ
-
計算 x=1 的情況:
對於 x=1,我們要求 p(x=1∣D)。代入 x=1:
p(x=1∣D)=s!(n−s)!(n+1)!∫01πs+1(1−π)n−sdπ
應用 (b) 部分的積分恆等式,令 m=s+1 且 n′=n−s:
∫01πs+1(1−π)n−sdπ=((s+1)+(n−s)+1)!(s+1)!(n−s)!=(n+2)!(s+1)!(n−s)!
p(x=1∣D)=s!(n−s)!(n+1)!(n+2)!(s+1)!(n−s)!=s!(n+2)(n+1)!(n+1)!(s+1)s!=n+2s+1
-
計算 x=0 的情況:
我們知道 p(x=0∣D)=1−p(x=1∣D),即 1−n+2s+1。
-
組合成單一表達式:
由於 x 只能是 0 或 1,我們可以將 p(x∣D) 寫成與伯努利分佈相同的函數形式:
p(x∣D)=(n+2s+1)x(1−n+2s+1)1−x
-
有效貝葉斯估計量與虛擬樣本:
π 的有效貝葉斯估計量(即 p(x=1∣D))為 π^Bayes=n+2s+1。
最大概似估計量 (MLE, Maximum Likelihood Estimate) 為 π^MLE=ns。
直觀的解釋是,均勻先驗分佈的作用就像我們在實際實驗之前已經觀察到了兩個虛擬樣本 (virtual samples):一個「正面」(分子 s 加 1)和一個「反面」(分母 n 總共加 2)。當我們的資料很少時,這可以防止 π 的估計值變為 0 或 1。這個概念被稱為拉普拉斯平滑 (Laplace smoothing)。