超幾何分布の性質 (期待値・分散・二項分布への近似)



1. はじめに

統計検定1級の確率分布の学習では、正規分布・二項分布・ポアソン分布などと並んで、超幾何分布も重要な分布の1つです。

ただし、超幾何分布は少しクセがあります。

二項分布と似ているのですが、二項分布のように「各抽出が独立」とは限りません。

むしろ、超幾何分布の本質は、

非復元抽出なので、各抽出が独立ではない

という点にあります。

統計検定1級では、単に確率関数を覚えるだけでは不十分です。

特に重要なのは、

  • 超幾何分布がどんな状況で出てくるか
  • 二項分布と何が違うか
  • 期待値を導出できるか
  • 分散に有限母集団補正が出てくる理由を説明できるか

です。

この記事では、初学者向けに、超幾何分布をできるだけ丁寧に解説します。


2. 超幾何分布の直感

2.1 くじ引きで考える

まずは、次のような状況を考えます。

箱の中に、全部で10本のくじが入っています。

そのうち、

  • 当たりくじが4本
  • はずれくじが6本

入っているとします。

この箱から、くじを3本引きます。

ただし、一度引いたくじは箱に戻しません。

つまり、非復元抽出です。

このとき、

3本引いた中に、当たりくじが何本含まれるか?

を考えます。

この「当たりの本数」を確率変数  X とすると、 X は超幾何分布に従います。


2.2 超幾何分布とは何を数える分布か

超幾何分布は、一言でいうと、

有限個の母集団から、戻さずにいくつか取り出したとき、成功が何個含まれるかを表す分布

です。

たとえば、

  • くじ引きで当たりが何本出るか
  • トランプから引いたカードにハートが何枚あるか
  • 製品ロットから抜き取った中に不良品が何個あるか
  • 集団から標本を取ったとき、ある属性を持つ人が何人いるか

といった場面で使われます。

ポイントは、一度取り出したものを戻さないことです。


3. 二項分布との違い

超幾何分布を理解するには、二項分布との違いを押さえるのがとても大切です。

3.1 二項分布は「復元抽出」に近い

二項分布は、たとえば次のような状況で使います。

  • コインを10回投げて表が出る回数
  • 成功確率  p の試行を  n 回行ったときの成功回数
  • 毎回同じ確率で成功・失敗が決まる試行

二項分布では、各試行が独立です。

つまり、

1回目に成功したかどうかは、2回目の成功確率に影響しない

ということです。


3.2 超幾何分布は「非復元抽出」

一方、超幾何分布では、取り出したものを戻しません。

たとえば、10本中4本が当たりのくじを考えます。

最初に当たりを引いた場合、箱の中は

  • 残り9本
  • 当たり3本
  • はずれ6本

になります。

したがって、次に当たりを引く確率は

\displaystyle{
\frac{3}{9}
}

です。

最初に外れを引いた場合は、箱の中は

  • 残り9本
  • 当たり4本
  • はずれ5本

なので、次に当たりを引く確率は

\displaystyle{
\frac{4}{9}
}

です。

つまり、1回目の結果によって、2回目の確率が変わります。

ここが二項分布との決定的な違いです。


4. 超幾何分布の定義

ここから、超幾何分布を数式で定義します。

母集団全体の個数を

\displaystyle{
N
}

とします。

そのうち、成功とみなすものの個数を

\displaystyle{
K
}

とします。

残りの失敗の個数は

\displaystyle{
N-K
}

です。

この母集団から、戻さずに

\displaystyle{
n
}

個を取り出します。

このとき、取り出した中に含まれる成功の個数を

\displaystyle{
X
}

とします。

この  X が超幾何分布に従います。

記号では、しばしば

\displaystyle{
X \sim \mathrm{Hypergeometric}(N,K,n)
}

のように書きます。


5. 確率質量関数

超幾何分布の確率質量関数は、次の形です。

\displaystyle{
P(X=k)
=
\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}
}

これは最重要公式です。

ただし、丸暗記ではなく、意味を理解することが大切です。


5.1 分母の意味

分母は

\displaystyle{
\binom{N}{n}
}

です。

これは、

全体  N 個から、 n 個を選ぶ方法の総数

です。

つまり、起こりうるすべての抽出パターンの数です。


5.2 分子の意味

 X=k とは、

取り出した  n 個の中に成功が  k 個含まれる

という意味です。

そのためには、

  • 成功  K 個の中から  k 個選ぶ
  • 失敗  N-K 個の中から  n-k 個選ぶ

必要があります。

成功の選び方は

\displaystyle{
\binom{K}{k}
}

通りです。

失敗の選び方は

\displaystyle{
\binom{N-K}{n-k}
}

通りです。

したがって、分子は

\displaystyle{
\binom{K}{k}\binom{N-K}{n-k}
}

になります。


5.3 つまり何をしているか

まとめると、

\displaystyle{
P(X=k)
=
\frac{
\text{成功を } k \text{ 個、失敗を } n-k \text{ 個選ぶ方法}
}{
\text{全体から } n \text{ 個選ぶ方法}
}
}

です。

超幾何分布の確率関数は、組合せの考え方そのものです。


6. 取りうる値の範囲

超幾何分布では、 k は何でもよいわけではありません。

成功数  k は、当然ながら

\displaystyle{
0 \leq k \leq K
}

でなければなりません。

また、取り出す個数は  n 個なので、

\displaystyle{
0 \leq k \leq n
}

でもあります。

さらに、失敗を  n-k 個取る必要があるので、

\displaystyle{
n-k \leq N-K
}

でなければなりません。

これは

\displaystyle{
k \geq n-(N-K)
}

と書けます。

したがって、 X の取りうる値は

\displaystyle{
\max(0,n-(N-K)) \leq k \leq \min(n,K)
}

です。

初学者のうちは、この範囲を毎回完璧に覚えるよりも、

成功を取りすぎてもダメ 失敗を取りすぎてもダメ

と理解しておくとよいです。


7. 期待値の公式

超幾何分布の期待値は、次の公式で表されます。

\displaystyle{
E[X]
=
n\frac{K}{N}
}

これはとても自然な形です。

なぜなら、

\displaystyle{
\frac{K}{N}
}

は、母集団全体における成功の割合だからです。

つまり、

全体の中で成功の割合が  K/N なら、 n 個取ったときの成功数の平均は  nK/N

ということです。


7.1 二項分布との比較

二項分布

\displaystyle{
X \sim \mathrm{Bin}(n,p)
}

の期待値は

\displaystyle{
E[X]=np
}

です。

超幾何分布では、成功割合が

\displaystyle{
p=\frac{K}{N}
}

に対応するので、

\displaystyle{
E[X]=n\frac{K}{N}
}

となります。

期待値だけを見ると、二項分布とかなり似ています。


8. 期待値の導出:指示関数を使う

統計検定1級では、期待値を公式として覚えるだけでなく、導出できることが大切です。

ここで便利なのが、指示関数です。


8.1 指示関数とは

 i 回目に取り出したものが成功なら1、失敗なら0をとる確率変数を考えます。

これを

\displaystyle{
I_i
}

と書きます。

つまり、

\displaystyle{
I_i=
\begin{cases}
1 & i\text{ 回目が成功} \\
0 & i\text{ 回目が失敗}
\end{cases}
}

です。


8.2 成功回数は指示関数の和

全体での成功回数  X は、各回の成功・失敗を足し合わせたものです。

したがって、

\displaystyle{
X=I_1+I_2+\cdots+I_n
}

と書けます。


8.3 期待値を計算する

期待値の線形性より、

\displaystyle{
E[X]
=
E[I_1+\cdots+I_n]
=
E[I_1]+\cdots+E[I_n]
}

です。

ここで、任意の  i について、

\displaystyle{
E[I_i]=P(I_i=1)
}

です。

ここで重要なのは、 i 回目に成功を引く周辺確率はすべて  K/N であるということです。

これは初学者がつまずきやすい部分なので、丁寧に確認しましょう。

まず、1回目に成功を引く確率は明らかに

\displaystyle{
P(I_1=1)=\frac{K}{N}
}

です。

では、2回目はどうでしょうか。

直感的には「1回目の結果に依存するので一概に言えない」と感じるかもしれません。たしかに、1回目の結果を条件にした確率は変わります。しかし、1回目の結果を知らないで2回目だけを見たときの周辺確率を考えるとどうなるでしょうか。

ここで「玉に番号を振って、無作為に並べる」というモデルで考えてみます。 N 個のくじをランダムな順序で1列に並べると、 K 個の成功くじはどの位置にも等確率で入りえます。したがって、「2番目の位置に成功くじが来る確率」も

\displaystyle{
\frac{K}{N}
}

となります。

同じ理由で、 i 回目に成功を引く周辺確率はすべて

\displaystyle{
P(I_i=1)=\frac{K}{N}
}

です。これを対称性と呼びます。

したがって、

\displaystyle{
E[I_i]=\frac{K}{N}
}

となります。

よって、

\displaystyle{
E[X]
=
n\frac{K}{N}
}

です。


8.4 重要ポイント:独立性はいらない

ここで大事なのは、

期待値の線形性には独立性が不要

ということです。

超幾何分布では、各抽出は独立ではありません。

しかし、期待値を足し合わせることはできます。

この点は、統計検定1級でも非常に重要です。


9. 分散の公式

次に、分散です。

超幾何分布の分散は、

\displaystyle{
\mathrm{Var}(X)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
\frac{N-n}{N-1}
}

です。

ここで重要なのは、最後の

\displaystyle{
\frac{N-n}{N-1}
}

です。

これは、有限母集団補正と呼ばれます。


10. 分散の直感

二項分布

\displaystyle{
X \sim \mathrm{Bin}(n,p)
}

の分散は

\displaystyle{
\mathrm{Var}(X)=np(1-p)
}

です。

超幾何分布では、

\displaystyle{
p=\frac{K}{N}
}

と考えると、

\displaystyle{
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
}

までは二項分布と同じ形です。

しかし、超幾何分布にはさらに

\displaystyle{
\frac{N-n}{N-1}
}

が付きます。

この補正係数は、通常1より小さいです。

つまり、超幾何分布の分散は、対応する二項分布より小さくなります。


10.1 なぜ分散が小さくなるのか

理由は、非復元抽出だからです。

たとえば、当たりくじを1本引くと、箱の中の当たりくじは1本減ります。

そのため、次に当たりを引く確率は下がります。

逆に、最初にはずれを引くと、箱の中の当たりの割合は上がります。

つまり、抽出結果が互いに影響し合います。

特に、

ある回で成功すると、別の回で成功する確率は少し下がる

という関係があります。

このため、成功回数のばらつきが抑えられます。


11. 分散の導出:指示関数で丁寧に考える

ここから、分散を導出します。

統計検定1級では、この導出を理解しておくことがかなり重要です。


11.1 まず  X を指示関数の和で書く

期待値のときと同じように、

\displaystyle{
X=I_1+I_2+\cdots+I_n
}

とします。

このとき、

\displaystyle{
\mathrm{Var}(X)
=
\mathrm{Var}(I_1+\cdots+I_n)
}

です。

分散は期待値と違い、単純に足すだけではいけません。

 I_i が独立でないからです。


11.2 分散の和の公式

一般に、

\displaystyle{
\mathrm{Var}(I_1+\cdots+I_n)
=
\sum_{i=1}^n \mathrm{Var}(I_i)
+
2\sum_{1\leq i \lt j\leq n}\mathrm{Cov}(I_i,I_j)
}

です。

つまり、分散を計算するには、

  •  I_i の分散
  • 異なる  I_i, I_j の共分散

が必要です。


12. 各  I_i の分散

 I_i は、成功なら1、失敗なら0をとる指示変数です。

ここで、各  I_i周辺分布は、 P(I_i=1)=K/N のベルヌーイ分布になっています。

ただし注意点として、 I_1, I_2, \ldots, I_n の同時分布は、独立なベルヌーイ列とは異なります(非復元抽出なので互いに依存します)。あくまで「ひとつずつ取り出して見たとき」の周辺分布がベルヌーイ分布だ、という意味です。

成功確率は

\displaystyle{
p=\frac{K}{N}
}

なので、ベルヌーイ分布の分散の公式から、

\displaystyle{
\mathrm{Var}(I_i)
=
p(1-p)
=
\frac{K}{N}
\left(1-\frac{K}{N}\right)
}

です。

したがって、

\displaystyle{
\sum_{i=1}^n \mathrm{Var}(I_i)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
}

となります。

ここまでは二項分布と同じです。


13. 共分散を計算する

次に、異なる  i\neq j について、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
}

を計算します。

共分散は、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
E[I_iI_j]-E[I_i]E[I_j]
}

です。


13.1  E[I_i ]  E[I_j ]

すでに見たように、

\displaystyle{
E[I_i]=E[I_j]=\frac{K}{N}
}

です。

したがって、

\displaystyle{
E[I_i]E[I_j]
=
\left(\frac{K}{N}\right)^2
}

です。


13.2  E[I_iI_j]

 I_iI_j は、両方とも成功したときだけ1になります。

つまり、

\displaystyle{
E[I_iI_j]
=
P(I_i=1, I_j=1)
}

です。

非復元抽出なので、2回とも成功する確率は

\displaystyle{
\frac{K}{N}\cdot\frac{K-1}{N-1}
}

です。

したがって、

\displaystyle{
E[I_iI_j]
=
\frac{K}{N}\cdot\frac{K-1}{N-1}
}

です。


13.3 共分散を整理する

これらをまとめると、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
\frac{K(K-1)}{N(N-1)}
-
\left(\frac{K}{N}\right)^2
}

となります。

ここから順に整理していきます。共通因子  K/N をくくり出すと、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
\frac{K}{N}
\left(\frac{K-1}{N-1}-\frac{K}{N}\right)
}

括弧の中を通分すると、

\displaystyle{
\frac{K-1}{N-1}-\frac{K}{N}
=
\frac{N(K-1)-K(N-1)}{N(N-1)}
=
\frac{NK-N-KN+K}{N(N-1)}
=
\frac{K-N}{N(N-1)}
}

したがって、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
\frac{K}{N}\cdot\frac{K-N}{N(N-1)}
=
-\frac{K}{N}\cdot\frac{N-K}{N}\cdot\frac{1}{N-1}
}

これは、

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
-\frac{K}{N}
\left(1-\frac{K}{N}\right)
\frac{1}{N-1}
}

と書けます。

つまり、

\displaystyle{
\mathrm{Cov}(I_i,I_j)<0
}

です。

これはとても重要です。


14. 共分散が負になる意味

共分散が負ということは、

ある回で成功すると、別の回で成功しにくくなる

ということです。

これは非復元抽出の直感と一致しています。

二項分布では、各試行が独立なので共分散は0です。

しかし、超幾何分布では、各抽出が独立ではありません。

そのため、負の共分散が出てきます。

この負の共分散が、分散を小さくします。


14.1 共分散の絶対値の振る舞い

共分散の式

\displaystyle{
\mathrm{Cov}(I_i,I_j)
=
-\frac{p(1-p)}{N-1}
}

をよく見ると、 N が大きくなるほど、共分散の絶対値はゼロに近づくことがわかります。

これは直感と一致しています。

母集団が大きいときは、1個取り除いても全体の構成はほとんど変わらない

ので、抽出結果同士の依存関係が弱くなります。

この性質は、後で「二項分布への近似」を考える際に重要になります。


15. 分散公式を完成させる

分散の公式に戻ります。

\displaystyle{
\mathrm{Var}(X)
=
\sum_{i=1}^n \mathrm{Var}(I_i)
+
2\sum_{1\leq i \lt j\leq n}\mathrm{Cov}(I_i,I_j)
}

まず、

\displaystyle{
\sum_{i=1}^n \mathrm{Var}(I_i)
=
np(1-p)
}

です。

また、組  (i,j) の数は

\displaystyle{
\binom{n}{2}
}

です。

したがって、

\displaystyle{
2\sum_{1\leq i \lt j\leq n}\mathrm{Cov}(I_i,I_j)
=
2\binom{n}{2}
\left(
-\frac{p(1-p)}{N-1}
\right)
}

です。

ここで、

\displaystyle{
2\binom{n}{2}=n(n-1)
}

なので、

\displaystyle{
2\sum_{1\leq i \lt j\leq n}\mathrm{Cov}(I_i,I_j)
=
-\frac{n(n-1)}{N-1}p(1-p)
}

です。

したがって、

\displaystyle{
\mathrm{Var}(X)
=
np(1-p)
-
\frac{n(n-1)}{N-1}p(1-p)
}

共通因子をくくると、

\displaystyle{
\mathrm{Var}(X)
=
np(1-p)
\left(
1-\frac{n-1}{N-1}
\right)
}

括弧の中を整理すると、

\displaystyle{
1-\frac{n-1}{N-1}
=
\frac{N-n}{N-1}
}

です。

したがって、

\displaystyle{
\mathrm{Var}(X)
=
np(1-p)
\frac{N-n}{N-1}
}

ここで

\displaystyle{
p=\frac{K}{N}
}

を戻すと、

\displaystyle{
\mathrm{Var}(X)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
\frac{N-n}{N-1}
}

となります。

これが超幾何分布の分散です。


16. 有限母集団補正とは何か

分散に出てくる

\displaystyle{
\frac{N-n}{N-1}
}

を有限母集団補正といいます。

これは、母集団が有限であり、かつ非復元抽出をしているために現れる補正です。


16.1 抽出数が小さいとき

もし  n N に比べてかなり小さいなら、

\displaystyle{
\frac{N-n}{N-1}
}

は1に近くなります。

この場合、超幾何分布は二項分布にかなり近くなります。

つまり、

たくさんある中から少しだけ取るなら、戻しても戻さなくてもあまり変わらない

ということです。


16.2 抽出数が大きいとき

一方、 n N に近いと、

\displaystyle{
\frac{N-n}{N-1}
}

は小さくなります。

たとえば、母集団全体をすべて取り出すなら、成功数は必ず  K です。

この場合、ばらつきはありません。

実際、 n=N とすると、

\displaystyle{
\frac{N-n}{N-1}=0
}

なので、

\displaystyle{
\mathrm{Var}(X)=0
}

になります。

これは直感と完全に一致しています。


17. 二項分布への近似

超幾何分布のもうひとつ重要な性質として、母集団が十分大きいとき、二項分布で近似できるという事実があります。

統計検定1級でも、この近似は時折顔を出します。


17.1 直感的な説明

母集団  N が非常に大きく、その中の成功割合  K/N が一定だとします。

このとき、1個取り出しても、母集団の構成比はほとんど変わりません。

つまり、

戻さない抽出と戻す抽出の差がほぼなくなる

ということです。

そのため、超幾何分布は二項分布で近似できます。


17.2 数学的な表現

 N\to\infty K\to\infty で、かつ

\displaystyle{
\frac{K}{N}\to p \quad (\text{一定})
}

の極限を考えます。

このとき、

\displaystyle{
\mathrm{Hypergeometric}(N,K,n)
\xrightarrow{d}
\mathrm{Bin}(n,p)
}

が成り立ちます(分布収束)。

これは、確率質量関数を直接見るとわかりやすいです。

たとえば  P(X=k) を整理すると、 N\to\infty K/N\to p のとき、

\displaystyle{
\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}
\to
\binom{n}{k}p^k(1-p)^{n-k}
}

となります。


17.3 分散から見た近似

分散の式で見ても、近似の意味がわかります。

\displaystyle{
\mathrm{Var}(X)
=
np(1-p)\frac{N-n}{N-1}
}

 N\to\infty n を固定すると、

\displaystyle{
\frac{N-n}{N-1}\to 1
}

となるので、

\displaystyle{
\mathrm{Var}(X)\to np(1-p)
}

です。

これは二項分布の分散そのものです。


17.4 実用的な目安

実用上は、

\displaystyle{
\frac{n}{N}\leq 0.05
}

程度なら、超幾何分布を二項分布で近似してよいとされることが多いです(分野によって基準は異なります)。

たとえば、品質管理で「大きなロット(数千個)から数十個をサンプリングする」ような場面では、二項分布で扱っても問題ないことが多いです。


18. よくあるミス

18.1 ミス1:二項分布と同じように独立だと思ってしまう

超幾何分布では、非復元抽出なので独立ではありません。

そのため、分散を計算するときに共分散を無視してはいけません。


18.2 ミス2:分散を二項分布と同じにしてしまう

よくある誤りは、

\displaystyle{
\mathrm{Var}(X)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
}

で止めてしまうことです。

これは二項分布の形です。

超幾何分布では、必ず

\displaystyle{
\frac{N-n}{N-1}
}

が付きます。


18.3 ミス3:期待値の導出に独立性が必要だと思う

期待値の線形性には独立性は不要です。

したがって、超幾何分布のように各抽出が独立でなくても、

\displaystyle{
E[X]=E[I_1]+\cdots+E[I_n]
}

とできます。


18.4 ミス4:有限母集団補正の意味を忘れる

有限母集団補正は、単なる飾りではありません。

これは、

非復元抽出によってばらつきが小さくなる

ことを表しています。

この直感を持っておくと、公式を忘れにくくなります。


19. 典型問題

最後に、典型的な問題を考えてみます。

19.1 問題

ある箱に、全部で20個の玉が入っている。

そのうち、赤玉が6個、白玉が14個である。

この箱から、戻さずに5個取り出す。

取り出した赤玉の個数を  X とする。

このとき、

  1.  X の分布を答えよ
  2.  P(X=2) を求めよ
  3.  E[X] を求めよ
  4.  \mathrm{Var}(X) を求めよ

19.2 解答

母集団サイズは

\displaystyle{
N=20
}

成功、つまり赤玉の個数は

\displaystyle{
K=6
}

抽出数は

\displaystyle{
n=5
}

です。

したがって、

\displaystyle{
X \sim \mathrm{Hypergeometric}(20,6,5)
}

です。


(1) 分布

\displaystyle{
X \sim \mathrm{Hypergeometric}(20,6,5)
}

(2)  P(X=2)

超幾何分布の確率質量関数より、

\displaystyle{
P(X=2)
=
\frac{\binom{6}{2}\binom{14}{3}}{\binom{20}{5}}
}

です。

各組合せを計算すると、

\displaystyle{
\binom{6}{2}=15,\quad
\binom{14}{3}=364,\quad
\binom{20}{5}=15504
}

なので、

\displaystyle{
P(X=2)
=
\frac{15\times 364}{15504}
=
\frac{5460}{15504}
\approx
0.352
}

となります。

つまり、5個取り出して赤玉がちょうど2個含まれる確率は約35.2%です。


(3) 期待値

\displaystyle{
E[X]
=
n\frac{K}{N}
=
5\cdot\frac{6}{20}
=
\frac{30}{20}
=
1.5
}

したがって、平均的には赤玉が1.5個出るということです。


(4) 分散

\displaystyle{
\mathrm{Var}(X)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
\frac{N-n}{N-1}
}

に代入します。

\displaystyle{
\mathrm{Var}(X)
=
5\cdot\frac{6}{20}
\cdot\frac{14}{20}
\cdot\frac{15}{19}
}

順に計算すると、

\displaystyle{
5\cdot\frac{6}{20}=\frac{30}{20}=1.5
}
\displaystyle{
1.5\cdot\frac{14}{20}=1.5\cdot 0.7=1.05
}
\displaystyle{
1.05\cdot\frac{15}{19}=\frac{15.75}{19}\approx 0.829
}

したがって、

\displaystyle{
\mathrm{Var}(X)\approx 0.829
}

です。

参考までに、もし復元抽出なら(二項分布として扱えば)、分散は

\displaystyle{
np(1-p)=5\cdot 0.3\cdot 0.7=1.05
}

です。

非復元抽出の場合は、有限母集団補正  15/19\approx 0.789 がかかるので、ばらつきが小さくなっていることが確認できます。


20. 補足:別の導出方法について

ここでは、本論で使わなかったいくつかの計算方法について、簡単に触れておきます。

統計検定1級対策としては、これらに多くの時間を割く必要はありませんが、他の文献で出てきたときに対応できる程度に知っておくとよいでしょう。


20.1 定義通りの計算

期待値は、定義通りに書けば

\displaystyle{
E[X]=\sum_k kP(X=k)
}

です。

分散も、

\displaystyle{
\mathrm{Var}(X)=E[X^2]-(E[X])^2
}

から計算できます。

しかし、超幾何分布でこの方法を使うと、組合せの和をかなり丁寧に処理する必要があります。

初学者にとっては、計算が重くなりやすいです。

統計検定1級対策としては、定義からの計算そのものよりも、

指示関数を使って期待値・分散を導出できること

の方が重要です。


20.2 確率母関数

確率母関数は、

\displaystyle{
G_X(s)=E[s^X]
}

で定義されます。

超幾何分布の場合、

\displaystyle{
G_X(s)
=
\sum_k
s^k
\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}
}

となります。

もちろん、ここから微分して期待値や分散を出すことも理論上は可能です。

しかし、二項分布のように

\displaystyle{
G_X(s)=(1-p+ps)^n
}

ときれいに扱えるわけではありません。

そのため、試験対策としては優先度は低めです。


20.3 モーメント母関数

モーメント母関数は、

\displaystyle{
M_X(t)=E[e^{tX}]
}

で定義されます。

超幾何分布の場合、

\displaystyle{
M_X(t)
=
\sum_k
e^{tk}
\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}
}

です。

こちらも理論的には使えます。

しかし、実戦的にはあまり便利ではありません。

統計検定1級対策としては、モーメント母関数から超幾何分布の期待値・分散を導出する練習に多くの時間を使う必要はありません。


21. 統計検定1級対策としてのまとめ

超幾何分布で最も大切なのは、

非復元抽出による依存構造

です。

期待値は二項分布と同じような形になります。

\displaystyle{
E[X]=n\frac{K}{N}
}

しかし、分散は二項分布と違います。

\displaystyle{
\mathrm{Var}(X)
=
n\frac{K}{N}
\left(1-\frac{K}{N}\right)
\frac{N-n}{N-1}
}

この違いを生むのが、

\displaystyle{
\frac{N-n}{N-1}
}

という有限母集団補正です。

そして、この補正が出てくる理由は、

非復元抽出では各抽出が独立ではなく、成功同士の共分散が負になるから

です。

統計検定1級では、公式を覚えるだけでなく、

  • 指示関数で期待値を導出できる
  • 共分散を使って分散を導出できる
  • 二項分布との違いを説明できる
  • 有限母集団補正の意味を説明できる
  • 母集団が大きいときに二項分布で近似できる

ところまで理解しておくと安心です。


22. 最後に

超幾何分布は、最初は少し難しく感じるかもしれません。

理由は、二項分布と似ているのに、独立ではないからです。

しかし、本質はとてもシンプルです。

戻さずに取るから、次の確率が変わる

この一言に尽きます。

そして、この「戻さずに取る」ことが、

  • 確率質量関数
  • 期待値
  • 分散
  • 有限母集団補正
  • 二項分布との違い
  • 二項分布近似

すべてにつながっています。

統計検定1級対策では、超幾何分布を単なる公式暗記で終わらせず、

非復元抽出による依存構造を理解する分布

として押さえておきましょう。