アカデミック

【初学者向き】共役事前分布とは?ド素人に向けて全力で解説してみます!

本記事は,初学者に向けてベイズ推定の基本概念である共役事前分布の意味をお伝えするという内容になっています。一見とっつきにくい数式が出てきますが,利用しているのは単純な考えのみですので,身構えずに見ていきましょう。

★この記事の流れ★

共役事前分布とは?
なぜ必要なの?

共役事前分布とは

共役って言葉は聞いたことあるけど…
何に対して共役なんだ?

結論から言ってしまうと,共役事前分布とは「事前分布と事後分布が同じ種類の確率分布を持つように定められた事前分布」のことを指します。

 

…?何が何だかサッパリ…

 

焦らず,1つずつ見ていきましょう。まずは,ベイズ推論の学習と予測に関して復習です。学習というのは「観測データから発生元の分布を定めるパラメータを推定すること」です。一般に,観測データが多ければ多いほど発生元のパラメータを〝良く〟推定することができます。予測というのは,学習して得られた発生元の分布を利用して未来に現れるデータを予測することです。

実際に,数式を利用して確認していきましょう。訓練データを$\mathcal{D}$,データ発生元の分布を定めるパラメータを$\theta$とすると,学習で求めるべき値は$p(\theta|\mathcal{D})$であり,ベイズの公式を利用して以下の式で表されます。ベイズの公式に関してはコチラの記事をご覧ください。

\begin{eqnarray}
p(\theta|\mathcal{D})=\frac{p(\mathcal{D}|\theta)p(\theta)}{p(\mathcal{D})}
\end{eqnarray}

ここで,用語の確認をしておきましょう。

●$p(\theta|\mathcal{D})$:学習で求めたい分布で「事後分布」
●$p(\mathcal{D}|\theta)$:データの発生にある数学的な分布を仮定する「尤度関数」
●$p(\theta)$:尤度関数を定めるパラメータの分布である「事前分布」

つまり,学習とは事後分布を求めるために「事前分布」と「尤度関数」を仮定して計算を行っていく操作を指します。共役事前分布は,式(1)で表される事後分布$p(\theta|\mathcal{D})$と事前分布$p(\theta)$が同じ種類の分布となるように定められた分布でした。

 

なんで同じ種類にするの?

 

事後分布$p(\theta|\mathcal{D})$と事前分布$p(\theta)$が同じ種類の分布になれば,計算が圧倒的に楽になります。これは,観測データを複数のデータセットに分割するときに威力を発揮します。なぜなら,データセットごとにばらばらの分布で考えてしまうと,計算が大変なだけでなく学習や予測に支障をきたしてしまいます。

予測

ここで,予測分布に関して確認しておきましょう。予測分布はデータセット$\mathcal{D}$から未知の出力$x_\ast$を求めるための分布である$p(x_\ast|\mathcal{D})$として定められます。この分布は,「$\mathcal{D}$から$\theta$が発生し,その$\theta$から$x_\ast$が発生した後に,積分を行うことで$\theta$を消去する」という定性的な方針で以下のように定義することができます。

\begin{eqnarray}
p(x_\ast|\mathcal{D})=\int p(x_\ast|\theta)p(\theta|\mathcal{D})\rm{d}\theta
\end{eqnarray}

この定義は「$\mathcal{D}$と$x_\ast$が$\theta$の下で条件付き独立である」という状況で簡単な式変形を施すことで証明されます。

 

具体的な共役事前分布

式(1)を見ても分かる通り,共役事前分布の形は尤度関数$p(\mathcal{D}|\theta)$に依存します。以下に主な対応表を載せておきます。

尤度関数[分布] パラメータ 共役事前分布 予測分布
ベルヌーイ $\mu$ ベータ ベルヌーイ
二項 $\mu$ ベータ ベータ・二項
カテゴリ $\pi$ ディリクレ カテゴリ
多項 $\pi$ ディリクレ ディリクレ・多項
ポアソン $\lambda$ ガンマ 負の二項
ガウス $\mu$ ガウス ガウス
ガウス $\lambda$ ガンマ $t$
多次元ガウス $\boldsymbol{\mu}$ 多次元ガウス ガウス
多次元ガウス $\boldsymbol{\Lambda}$ ウィシャート 多次元$t$

 

なるほど!ディリクレ分布が事前分布に使われる理由が少し分かった気がする!

 

以上の流れがまだどうしても理解できないという方は,以下の入門書を参考にしてみてください。行間がしっかり詰められており,良書です。

ABOUT ME
zuka
京都大学で機械学習を学んでいます。
あわせて読みたい

COMMENT

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

※ Please enter your comments in Japanese to prevent spam.