Step 5: 大標本理論
確率収束、法則収束、大数の法則、中心極限定理、デルタ法を詳細に理解します
📚 このステップで学ぶこと
大標本理論は、標本サイズが大きくなったときの統計量の振る舞いを扱います。このステップでは、確率収束と法則収束の違い、大数の法則、中心極限定理の厳密な理解を通じて、統計的推測の理論的基礎を固めます。
- 「標本を増やすと推定は良くなる」は数学的にどう表現される?
- 「標本平均の分布は正規分布に近づく」はなぜ成り立つ?
- 「$n = 30$ 以上なら正規近似OK」の根拠は何?
- 「$\log(\bar{X})$ の分布はどうなる?」をどう計算する?
🔧 Step 4の復習:このステップに必要な前提知識
Step 5を理解するには、Step 4の内容が必須です。以下を確認してから進みましょう。
| Step 4の内容 | このStepでの使い方 | 確認 |
|---|---|---|
| 独立なら $V(X+Y) = V(X) + V(Y)$ | 標本平均の分散 $V(\bar{X}) = \sigma^2/n$ の導出 | □ |
| 正規分布の再生性 | 中心極限定理の直感的理解 | □ |
| 変数変換 $Y=g(X)$ の分布 | デルタ法の理解 | □ |
| 期待値の線形性 $E(aX+b) = aE(X)+b$ | 標準化の計算 | □ |
不安な項目があれば、Step 4 を復習してから進んでください。
🌟 大標本理論の全体像
| 概念 | 一言で言うと | 実務での意味 |
|---|---|---|
| 1. 収束の概念 | 「近づく」の数学的定義 | 推定量がどう「良くなる」かを表現 |
| 2. 大数の法則 | 平均は真の値に収束 | 標本を増やせば推定は当たる |
| 3. 中心極限定理 | 平均の分布は正規分布に | 正規分布で近似できる根拠 |
| 4. デルタ法 | 関数の分布を求める | 複雑な統計量の信頼区間 |
| 大数の法則 | 中心極限定理 |
| ↓ | ↓ |
| 「$\bar{X} \to \mu$ に近づく」 | 「$\bar{X}$ の分布 → 正規分布」 |
| ↓ | ↓ |
| 点推定の正当化 | 区間推定・検定の基礎 |
| ↓ | |
| デルタ法 | |
| ↓ | |
| $g(\bar{X})$ の分布も求まる | |
1. 収束の概念
1.0 なぜ「収束」を学ぶのか?
直感的には「$n$ を大きくすると $\bar{X}$ は $\mu$ に近づく」と言いますが、
確率変数の「近づく」には複数の意味があります。
例:サイコロを繰り返し投げる
$\bar{X}_n = (X_1 + X_2 + \cdots + X_n) / n$ (出た目の平均)
$n = 10$ のとき、$\bar{X}_{10} = 3.2$ かもしれないし、4.1 かもしれない
$n = 100$ のとき、$\bar{X}_{100} = 3.48$ かもしれないし、3.52 かもしれない
$n = 10000$ のとき、$\bar{X}_{10000} = 3.498$ かもしれないし、3.502 かもしれない
真の期待値 $\mu = 3.5$ に「近づいている」とはどういう意味?
→ これを厳密に定義するのが「収束」の概念
1.1 確率収束(Convergence in Probability)
確率変数の列 $\{X_n\}$ が定数 $c$ に確率収束するとは: $$\text{任意の } \varepsilon > 0 \text{ に対して、} \lim_{n \to \infty} P(|X_n – c| > \varepsilon) = 0$$
記号:$X_n \xrightarrow{p} c$ または $\text{plim } X_n = c$
【日本語で言うと(読み方)】「$n$ が無限大に近づくとき、$X_n$ と $c$ の差が $\varepsilon$ より大きくなる確率が 0 に近づく」
言い換えると:
「どんなに小さい範囲 $\varepsilon$ を指定しても、その範囲に入る確率が1に近づく」
真の値 $c$ の周りに「的」を描いて、$X_n$ が「当たる」確率を考える
|
$n$ が小さいとき 的(範囲 $\varepsilon$)に当たる確率は それほど高くない $P(|X_n – c| \leq \varepsilon) = 0.6$ とか |
$n$ が大きくなると 的に当たる確率が どんどん 1 に近づく $P(|X_n – c| \leq \varepsilon) \to 1$ |
どんなに小さい的($\varepsilon$)を設定しても、$n$ を十分大きくすれば、
ほぼ確実に的に当たる → これが確率収束
例題1:確率収束の証明(丁寧な解説)
問題:$X_n = 1/n$ のとき、$X_n \xrightarrow{p} 0$ を示せ。
【示すこと】
任意の $\varepsilon > 0$ に対して、$\displaystyle\lim_{n \to \infty} P(|X_n – 0| > \varepsilon) = 0$
【計算】 $$P(|X_n – 0| > \varepsilon) = P\left(\left|\frac{1}{n}\right| > \varepsilon\right) = P\left(\frac{1}{n} > \varepsilon\right)$$ ここで、$\frac{1}{n} > \varepsilon \Leftrightarrow n < \frac{1}{\varepsilon}$
$n > \frac{1}{\varepsilon}$ のとき(つまり $n$ が十分大きいとき)、
$\frac{1}{n} < \varepsilon$ となるので、$P\left(\frac{1}{n} > \varepsilon\right) = 0$
【結論】
$\displaystyle\lim_{n \to \infty} P(|X_n| > \varepsilon) = 0$ より、$X_n = \frac{1}{n} \xrightarrow{p} 0$ ✓
1.2 法則収束(分布収束)
確率変数の列 $\{X_n\}$ が確率変数 $X$ に法則収束するとは: $$F \text{ の連続点 } x \text{ すべてで、} \lim_{n \to \infty} F_n(x) = F(x)$$
記号:$X_n \xrightarrow{d} X$ または $X_n \Rightarrow X$
【日本語で言うと(読み方)】「$n$ が無限大に近づくとき、$X_n$ の分布関数 $F_n(x)$ が $X$ の分布関数 $F(x)$ に近づく」
言い換えると:
「$X_n$ の分布の『形』が $X$ の分布の『形』に近づく」
確率収束:実現値が特定の値に近づく
法則収束:分布の形が特定の分布に近づく
例:中心極限定理
$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$
これは「標本平均の標準化の分布が標準正規分布に近づく」という意味
1.3 確率収束と法則収束の関係
・確率収束の方が「強い」収束
・確率収束すれば、自動的に法則収束もする
・しかし、分布が近づいても、実現値が近づくとは限らない
例題2:法則収束するが確率収束しない例
問題:$X$ は標準正規分布 $N(0,1)$ に従う確率変数とする。$X_n = (-1)^n X$ とおくとき、$X_n$ は法則収束するが確率収束しないことを示せ。
【法則収束の確認】
$n$ が偶数のとき:$X_n = X \sim N(0, 1)$
$n$ が奇数のとき:$X_n = -X \sim N(0, 1)$($-X$ も標準正規分布)
どちらの場合も $X_n \sim N(0, 1)$ なので、
$X_n \xrightarrow{d} N(0, 1)$ ✓
【確率収束しないことの確認】
もし $X_n$ がある値 $c$ に確率収束するなら、
$X_{n+1}$ も $c$ に確率収束し、$|X_n – X_{n+1}| \xrightarrow{p} 0$ となるはず。
しかし、 $$|X_n – X_{n+1}| = |(-1)^n X – (-1)^{n+1} X| = |2X|$$ $$P(|X_n – X_{n+1}| > \varepsilon) = P(|2X| > \varepsilon) = P\left(|X| > \frac{\varepsilon}{2}\right) > 0$$ これは $n$ によらず正の値なので、0 に収束しない。
よって、確率収束しない ✓
【直感的理解】
$X_n$ は $n$ ごとに $+X$ と $-X$ を行ったり来たりしている。
分布の「形」は同じだが、実現値は落ち着かない。
2. 大数の法則
2.0 大数の法則とは?(直感的理解)
コイントスの例:
公正なコインを投げると、表が出る確率は $p = 0.5$
10回投げる → 表が3回(30%)かもしれないし、7回(70%)かもしれない
100回投げる → 表が45回(45%)〜55回(55%)あたりに収まりやすい
10000回投げる → 表が49%〜51%にほぼ確実に収まる
「試行回数を増やすと、観測された割合は真の確率に近づく」
これが大数の法則の本質!
2.1 大数の弱法則
$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$、$V(X_i) = \sigma^2 < \infty$ のとき: $$\bar{X}_n = \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{p} \mu$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、標本平均 $\bar{X}_n$ は母平均 $\mu$ に確率収束する」
【実務での意味】
・標本を増やせば、推定値は真の値に近づく
・これが「推定」という行為の理論的正当化
例題3:大数の弱法則の証明(チェビシェフの不等式を使用)
問題:チェビシェフの不等式を使って、大数の弱法則を証明せよ。
【使う道具:チェビシェフの不等式】
任意の確率変数 $Y$ と $\varepsilon > 0$ に対して、 $$P(|Y – E(Y)| \geq \varepsilon) \leq \frac{V(Y)}{\varepsilon^2}$$ 【準備:$\bar{X}_n$ の期待値と分散】 $$E(\bar{X}_n) = E\left(\frac{1}{n}\sum X_i\right) = \frac{1}{n}\sum E(X_i) = \frac{1}{n} \times n\mu = \mu$$ $$V(\bar{X}_n) = V\left(\frac{1}{n}\sum X_i\right) = \frac{1}{n^2}\sum V(X_i) = \frac{1}{n^2} \times n\sigma^2 = \frac{\sigma^2}{n}$$ (独立なので分散は足せる、係数 $\frac{1}{n}$ は2乗される)
【チェビシェフの不等式を適用】
任意の $\varepsilon > 0$ に対して、 $$P(|\bar{X}_n – \mu| \geq \varepsilon) \leq \frac{V(\bar{X}_n)}{\varepsilon^2} = \frac{\sigma^2}{n\varepsilon^2}$$ 【$n \to \infty$ の極限をとる】
$n \to \infty$ のとき、$\frac{\sigma^2}{n\varepsilon^2} \to 0$
よって、$P(|\bar{X}_n – \mu| \geq \varepsilon) \to 0$
【結論】
$\bar{X}_n \xrightarrow{p} \mu$ ✓
【ポイント】
$V(\bar{X}_n) = \frac{\sigma^2}{n}$ が $n$ とともに 0 に近づくことが本質!
分散が小さくなる = ばらつきが減る = 真の値に近づく
2.2 大数の強法則
$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$ のとき: $$P\left(\lim_{n \to \infty} \bar{X}_n = \mu\right) = 1$$ 【日本語で言うと(読み方)】
「確率1で(ほぼ確実に)、$n$ が無限大に近づくとき、標本平均は母平均に収束する」
【弱法則との違い】
・弱法則:「近づく確率が1に近づく」
・強法則:「確率1で近づく」(より強い主張)
準1級では弱法則を中心に学びます。強法則は「より強い定理がある」と覚えておけばOK。
2.3 大数の法則の応用:モンテカルロ法
大数の法則は、シミュレーションによる数値計算の理論的基礎となります。
例:円周率 $\pi$ の推定- 単位正方形 $[0,1] \times [0,1]$ 内にランダムに点を打つ
- 点が単位円内($x^2 + y^2 \leq 1$)に入る確率は $\frac{\pi}{4}$
- $n$ 個の点のうち $m$ 個が円内に入ったとき、$\hat{\pi} = \frac{4m}{n}$
- 大数の法則より、$n \to \infty$ で $\hat{\pi} \to \pi$
3. 中心極限定理
3.0 中心極限定理とは?(直感的理解)
大数の法則:「$\bar{X}$ は $\mu$ に近づく」(点の話)
中心極限定理:「$\bar{X}$ の分布は正規分布に近づく」(分布の話)
驚くべきこと:
元の分布が何であっても(正規分布でなくても!)、
標本平均の分布は正規分布に近づく。
コイントス(ベルヌーイ分布)の平均 → 正規分布に近づく
サイコロ(離散一様分布)の平均 → 正規分布に近づく
指数分布の平均 → 正規分布に近づく
どんな分布でも → 正規分布に近づく!
これが「正規分布が統計学で最も重要」と言われる理由です!
3.1 中心極限定理の主張
$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$、$V(X_i) = \sigma^2 < \infty$ のとき: $$\frac{\sqrt{n}(\bar{X}_n - \mu)}{\sigma} \xrightarrow{d} N(0, 1)$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、標本平均から母平均を引いて $\sqrt{n}$ をかけ、$\sigma$ で割ったものは、標準正規分布に法則収束する」
または同じことを別の書き方で($n$ が大きいとき近似的に): $$\bar{X}_n \approx N\left(\mu, \frac{\sigma^2}{n}\right)$$ 【条件の確認】
・独立:各観測が互いに影響しない
・同分布:同じ母集団からのサンプリング
・分散が有限:$\sigma^2 < \infty$(ほとんどの実用的な分布で成り立つ)
$\bar{X}_n$ は $n$ によって分散が変わる($\sigma^2/n$)
標準化 $\frac{\bar{X}_n – \mu}{\sigma/\sqrt{n}}$ すると、分散が常に1になる
これにより、異なる $n$ での比較が可能になる
標準化の意味:
「$\bar{X}_n$ が $\mu$ から $\frac{\sigma}{\sqrt{n}}$ の単位でどれくらい離れているか」を測る
例題4:中心極限定理の応用(詳細解説)
問題:サイコロを100回投げたとき、出た目の合計が320以上になる確率を求めよ。
【問題の整理】
$X_i$ = $i$ 回目の出た目(1, 2, 3, 4, 5, 6のいずれか)
$S = X_1 + X_2 + \cdots + X_{100}$ = 合計
求めるもの:$P(S \geq 320)$
【サイコロの期待値と分散】 $$E(X_i) = \frac{1+2+3+4+5+6}{6} = \frac{21}{6} = 3.5$$ $$E(X_i^2) = \frac{1+4+9+16+25+36}{6} = \frac{91}{6}$$ $$V(X_i) = E(X_i^2) – \{E(X_i)\}^2 = \frac{91}{6} – (3.5)^2 = \frac{35}{12} \approx 2.917$$ 【合計 $S$ の期待値と分散】 $$E(S) = 100 \times E(X_i) = 100 \times 3.5 = 350$$ $$V(S) = 100 \times V(X_i) = 100 \times \frac{35}{12} = \frac{875}{3} \approx 291.67$$ $$\sigma_S = \sqrt{\frac{875}{3}} \approx 17.08$$ 【中心極限定理を適用】
$n = 100$ は十分大きいので、 $$Z = \frac{S – 350}{17.08} \approx N(0, 1)$$ 【確率の計算】 $$P(S \geq 320) = P\left(\frac{S – 350}{17.08} \geq \frac{320 – 350}{17.08}\right) = P(Z \geq -1.76)$$ $$= 1 – P(Z < -1.76) = 1 - 0.0392 \approx 0.9608$$ 【解釈】
サイコロを100回投げたとき、合計が320以上になる確率は約96%
3.2 中心極限定理の「$n \geq 30$」ルール
よく「$n \geq 30$ なら中心極限定理が使える」と言われますが、これは目安です。
実際には元の分布の形状によって異なります:
| 元の分布 | 必要な $n$ |
|---|---|
| 正規分布に近い(対称、単峰) | $n = 5 \sim 10$ でも十分 |
| 対称だが裾が重い | $n = 30 \sim 50$ 程度 |
| 非対称(歪んだ分布) | $n = 50 \sim 100$ 以上が必要 |
| 非常に歪んだ分布 | $n = 100$ 以上が望ましい |
4. デルタ法
4.0 デルタ法とは?(なぜ必要か)
中心極限定理で「$\bar{X}$ の分布は正規分布に近づく」ことがわかりました。
では、$\bar{X}$ の関数($\log(\bar{X})$、$\sqrt{\bar{X}}$、$1/\bar{X}$ など)の分布は?
例:
・オッズ比の信頼区間(log変換が必要)
・比率の平方根の分布(安定化変換)
・2つの平均の比の分布
デルタ法は、統計量の関数の漸近分布を求める強力な道具!
4.1 デルタ法の主張
$\sqrt{n}(\bar{X}_n – \mu) \xrightarrow{d} N(0, \sigma^2)$ のとき、
$g(x)$ が微分可能で $g'(\mu) \neq 0$ ならば: $$\sqrt{n}\{g(\bar{X}_n) – g(\mu)\} \xrightarrow{d} N\left(0, \{g'(\mu)\}^2 \sigma^2\right)$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、$g(\bar{X}_n)$ から $g(\mu)$ を引いて $\sqrt{n}$ をかけたものは、平均0、分散 $\{g'(\mu)\}^2 \sigma^2$ の正規分布に法則収束する」
または同じことを別の書き方で($n$ が大きいとき近似的に): $$g(\bar{X}_n) \approx N\left(g(\mu), \frac{\{g'(\mu)\}^2 \sigma^2}{n}\right)$$
$g(\bar{X})$ を $\mu$ の周りでテイラー展開:
$$g(\bar{X}) \approx g(\mu) + g'(\mu)(\bar{X} – \mu)$$
両辺から $g(\mu)$ を引いて $\sqrt{n}$ をかけると:
$$\sqrt{n}\{g(\bar{X}) – g(\mu)\} \approx g'(\mu) \times \sqrt{n}(\bar{X} – \mu)$$
右辺は $N(0, \sigma^2)$ に従うものに $g'(\mu)$ をかけたもの
→ $N(0, \{g'(\mu)\}^2\sigma^2)$ に従う
例題5:デルタ法の適用(平方根の例)
問題:$\bar{X}_n \approx N(\mu, \sigma^2/n)$ のとき、$\sqrt{\bar{X}_n}$ の漸近分布を求めよ($\mu > 0$)。
【関数と導関数】 $$g(x) = \sqrt{x}$$ $$g'(x) = \frac{1}{2\sqrt{x}}$$ $$g'(\mu) = \frac{1}{2\sqrt{\mu}}$$ 【デルタ法の適用】 $$\sqrt{n}\{\sqrt{\bar{X}_n} – \sqrt{\mu}\} \xrightarrow{d} N\left(0, \{g'(\mu)\}^2 \sigma^2\right) = N\left(0, \frac{\sigma^2}{4\mu}\right)$$ 【漸近分布】 $$\sqrt{\bar{X}_n} \approx N\left(\sqrt{\mu}, \frac{\sigma^2}{4n\mu}\right)$$ 【確認】
・期待値は $\sqrt{\mu}$(元の期待値の平方根)
・分散は $\frac{\sigma^2}{4n\mu}$(元の分散を $4\mu$ で割って $n$ で割る)
例題6:デルタ法の適用(対数の例)
問題:$\bar{X}_n \approx N(\mu, \sigma^2/n)$ のとき、$\log(\bar{X}_n)$ の漸近分布を求めよ($\mu > 0$)。
【関数と導関数】 $$g(x) = \log(x)$$ $$g'(x) = \frac{1}{x}$$ $$g'(\mu) = \frac{1}{\mu}$$ 【デルタ法の適用】 $$\sqrt{n}\{\log(\bar{X}_n) – \log(\mu)\} \xrightarrow{d} N\left(0, \frac{\sigma^2}{\mu^2}\right)$$ 【漸近分布】 $$\log(\bar{X}_n) \approx N\left(\log(\mu), \frac{\sigma^2}{n\mu^2}\right)$$ 【応用】
オッズ比の信頼区間を求めるときに使う!
$\log(\text{オッズ比})$ の分散を求めてから、元に戻す。
5. スルツキーの定理
5.1 スルツキーの定理
$X_n \xrightarrow{d} X$、$Y_n \xrightarrow{p} c$ のとき: $$X_n + Y_n \xrightarrow{d} X + c$$ $$X_n \cdot Y_n \xrightarrow{d} c \cdot X$$ $$\frac{X_n}{Y_n} \xrightarrow{d} \frac{X}{c} \quad (c \neq 0)$$ 【日本語で言うと(読み方)】
「法則収束するものと確率収束するものを足したり掛けたりすると、定数との演算と同じになる」
【重要な応用】
$\sigma$ が未知のとき、$\sigma$ の代わりに $S_n$(標本標準偏差)を使える!
例題7:スルツキーの定理の応用
問題:$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$、$S_n \xrightarrow{p} \sigma$ のとき、$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n}$ の漸近分布を求めよ。
【わかっていること】
・$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(中心極限定理)
・$S_n \xrightarrow{p} \sigma$(標本標準偏差の一致性)
【式の変形】 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} = \frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \times \frac{\sigma}{S_n}$$ 【スルツキーの定理を適用】
・$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$
・$\frac{\sigma}{S_n} \xrightarrow{p} \frac{\sigma}{\sigma} = 1$(連続写像定理より)
スルツキーの定理より、 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} \xrightarrow{d} N(0, 1) \times 1 = N(0, 1)$$ 【実務での意味】
$\sigma$ が未知でも、$S_n$ で置き換えれば漸近的には同じ分布!
これが「大標本では $t$ 検定と $z$ 検定が同じになる」理由です。
5.2 連続写像定理
$X_n \xrightarrow{d} X$、$g(\cdot)$ が連続関数のとき: $$g(X_n) \xrightarrow{d} g(X)$$ $X_n \xrightarrow{p} c$、$g(\cdot)$ が連続のとき: $$g(X_n) \xrightarrow{p} g(c)$$
読み方:「連続関数を通しても収束性は保たれる」
📝 練習問題
確率収束の定義
$X_n = c + \frac{1}{n^2}$ のとき、$X_n \xrightarrow{p} c$ を示せ。
任意の $\varepsilon > 0$ に対して、 $$P(|X_n – c| > \varepsilon) = P\left(\left|\frac{1}{n^2}\right| > \varepsilon\right) = P\left(\frac{1}{n^2} > \varepsilon\right)$$ $n > \frac{1}{\sqrt{\varepsilon}}$ のとき、$\frac{1}{n^2} < \varepsilon$ なので、$P\left(\frac{1}{n^2} > \varepsilon\right) = 0$ よって、$\displaystyle\lim_{n \to \infty} P(|X_n – c| > \varepsilon) = 0$ ✓
大数の弱法則の応用
コインを100回投げる。表が出る回数を $X$ とする。$P(0.4 \leq X/100 \leq 0.6)$ の下限をチェビシェフの不等式で求めよ。
中心極限定理(二項分布)
$X \sim B(100, 0.3)$ のとき、$P(X \leq 25)$ を正規近似で求めよ。
デルタ法(対数変換)
$\sqrt{n}(\bar{X}_n – \mu) \xrightarrow{d} N(0, \sigma^2)$ のとき、$\log(\bar{X}_n)$ の漸近分布を求めよ($\mu > 0$)。
スルツキーの定理
$X_n \xrightarrow{d} N(0, 1)$、$Y_n \xrightarrow{p} 2$ のとき、$X_n + Y_n$ の漸近分布を求めよ。
スルツキーの定理より、 $$X_n + Y_n \xrightarrow{d} N(0, 1) + 2 = N(2, 1)$$
指数分布の標本平均
$X_i \sim \text{Exp}(\lambda)$(指数分布)が独立のとき、$\sqrt{n}(\bar{X}_n – 1/\lambda)$ の漸近分布を求めよ。
指数分布:$E(X) = \frac{1}{\lambda}$、$V(X) = \frac{1}{\lambda^2}$ 中心極限定理より、 $$\sqrt{n}\left(\bar{X}_n – \frac{1}{\lambda}\right) \xrightarrow{d} N\left(0, \frac{1}{\lambda^2}\right)$$
標本比率の漸近分布
$n$ 回の試行で成功が $X$ 回。$\hat{p} = X/n$ とする。$\sqrt{n}(\hat{p} – p)$ の漸近分布を求めよ。
$X \sim B(n, p)$ より、 $$E(\hat{p}) = p, \quad V(\hat{p}) = \frac{p(1-p)}{n}$$ 中心極限定理より、 $$\sqrt{n}(\hat{p} – p) \xrightarrow{d} N(0, p(1-p))$$
連続性補正
なぜ二項分布を正規近似するとき、連続性の補正が必要か説明せよ。
二項分布は離散分布で、整数値しかとらない。
一方、正規分布は連続分布。
例:$P(X = 5)$ を近似するとき、
・連続性補正なし:点での確率(0になる)
・連続性補正あり:$P(4.5 \leq X \leq 5.5)$ を計算
これにより、より正確な近似が得られる。
デルタ法(平方根)
$\hat{p} = X/n$ とする。$\sqrt{\hat{p}}$ の漸近分布を求めよ($p > 0$)。
大標本での信頼区間
中心極限定理を使って、母平均 $\mu$ の漸近的95%信頼区間を求めよ($\sigma$ 未知)。
$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(中心極限定理)
$S_n \xrightarrow{p} \sigma$(一致性)
スルツキーの定理より、 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} \xrightarrow{d} N(0, 1)$$ よって、漸近的95%信頼区間は、 $$\bar{X}_n \pm 1.96 \times \frac{S_n}{\sqrt{n}}$$
- 確率収束と法則収束:「近づく」の2つの異なる意味を理解した
- 大数の法則:$\bar{X}_n \xrightarrow{p} \mu$(標本平均が母平均に確率収束)
- 中心極限定理:$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(標本平均の分布が正規分布に近づく)
- デルタ法:$g(\bar{X}_n)$ の漸近分布は $N(g(\mu), \{g'(\mu)\}^2 \sigma^2/n)$
- スルツキーの定理:法則収束と確率収束を組み合わせる方法
大標本理論は統計学の根幹!
これらの定理が、推定や検定の「大標本での近似」の理論的根拠になります。
次のStep 6では、これらを使って「統計的推定」を学びます。
学習メモ
統計検定準1級対策 - Step 5