Step 5:大標本理論

Step 5: 大標本理論

確率収束、法則収束、大数の法則、中心極限定理、デルタ法を詳細に理解します

📚 このステップで学ぶこと

大標本理論は、標本サイズが大きくなったときの統計量の振る舞いを扱います。このステップでは、確率収束と法則収束の違い、大数の法則、中心極限定理の厳密な理解を通じて、統計的推測の理論的基礎を固めます。

🎯 このステップで答える疑問
  • 「標本を増やすと推定は良くなる」は数学的にどう表現される?
  • 「標本平均の分布は正規分布に近づく」はなぜ成り立つ?
  • 「$n = 30$ 以上なら正規近似OK」の根拠は何?
  • 「$\log(\bar{X})$ の分布はどうなる?」をどう計算する?

🔧 Step 4の復習:このステップに必要な前提知識

Step 5を理解するには、Step 4の内容が必須です。以下を確認してから進みましょう。

✅ 確認チェックリスト
Step 4の内容 このStepでの使い方 確認
独立なら $V(X+Y) = V(X) + V(Y)$ 標本平均の分散 $V(\bar{X}) = \sigma^2/n$ の導出
正規分布の再生性 中心極限定理の直感的理解
変数変換 $Y=g(X)$ の分布 デルタ法の理解
期待値の線形性 $E(aX+b) = aE(X)+b$ 標準化の計算

不安な項目があれば、Step 4 を復習してから進んでください。

🌟 大標本理論の全体像

📊 このステップで学ぶ4つの重要概念
概念 一言で言うと 実務での意味
1. 収束の概念 「近づく」の数学的定義 推定量がどう「良くなる」かを表現
2. 大数の法則 平均は真の値に収束 標本を増やせば推定は当たる
3. 中心極限定理 平均の分布は正規分布に 正規分布で近似できる根拠
4. デルタ法 関数の分布を求める 複雑な統計量の信頼区間
🔗 概念の関係性
大数の法則 中心極限定理
「$\bar{X} \to \mu$ に近づく」 「$\bar{X}$ の分布 → 正規分布」
点推定の正当化 区間推定・検定の基礎
デルタ法
$g(\bar{X})$ の分布も求まる

1. 収束の概念

1.0 なぜ「収束」を学ぶのか?

📊 「近づく」とは何か?

直感的には「$n$ を大きくすると $\bar{X}$ は $\mu$ に近づく」と言いますが、
確率変数の「近づく」には複数の意味があります。

例:サイコロを繰り返し投げる
$\bar{X}_n = (X_1 + X_2 + \cdots + X_n) / n$ (出た目の平均)

$n = 10$ のとき、$\bar{X}_{10} = 3.2$ かもしれないし、4.1 かもしれない
$n = 100$ のとき、$\bar{X}_{100} = 3.48$ かもしれないし、3.52 かもしれない
$n = 10000$ のとき、$\bar{X}_{10000} = 3.498$ かもしれないし、3.502 かもしれない

真の期待値 $\mu = 3.5$ に「近づいている」とはどういう意味?
→ これを厳密に定義するのが「収束」の概念

1.1 確率収束(Convergence in Probability)

確率収束の定義
確率変数の列 $\{X_n\}$ が定数 $c$ に確率収束するとは: $$\text{任意の } \varepsilon > 0 \text{ に対して、} \lim_{n \to \infty} P(|X_n – c| > \varepsilon) = 0$$

記号:$X_n \xrightarrow{p} c$ または $\text{plim } X_n = c$

【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、$X_n$ と $c$ の差が $\varepsilon$ より大きくなる確率が 0 に近づく」

言い換えると:
「どんなに小さい範囲 $\varepsilon$ を指定しても、その範囲に入る確率が1に近づく」
💡 確率収束の直感的イメージ

真の値 $c$ の周りに「的」を描いて、$X_n$ が「当たる」確率を考える

$n$ が小さいとき

的(範囲 $\varepsilon$)に当たる確率は
それほど高くない
$P(|X_n – c| \leq \varepsilon) = 0.6$ とか
$n$ が大きくなると

的に当たる確率が
どんどん 1 に近づく
$P(|X_n – c| \leq \varepsilon) \to 1$

どんなに小さい的($\varepsilon$)を設定しても、$n$ を十分大きくすれば、
ほぼ確実に的に当たる → これが確率収束

例題1:確率収束の証明(丁寧な解説)

問題:$X_n = 1/n$ のとき、$X_n \xrightarrow{p} 0$ を示せ。

解答:

【示すこと】
任意の $\varepsilon > 0$ に対して、$\displaystyle\lim_{n \to \infty} P(|X_n – 0| > \varepsilon) = 0$

【計算】 $$P(|X_n – 0| > \varepsilon) = P\left(\left|\frac{1}{n}\right| > \varepsilon\right) = P\left(\frac{1}{n} > \varepsilon\right)$$ ここで、$\frac{1}{n} > \varepsilon \Leftrightarrow n < \frac{1}{\varepsilon}$

$n > \frac{1}{\varepsilon}$ のとき(つまり $n$ が十分大きいとき)、
$\frac{1}{n} < \varepsilon$ となるので、$P\left(\frac{1}{n} > \varepsilon\right) = 0$

【結論】
$\displaystyle\lim_{n \to \infty} P(|X_n| > \varepsilon) = 0$ より、$X_n = \frac{1}{n} \xrightarrow{p} 0$ ✓

1.2 法則収束(分布収束)

法則収束(Convergence in Distribution)の定義
確率変数の列 $\{X_n\}$ が確率変数 $X$ に法則収束するとは: $$F \text{ の連続点 } x \text{ すべてで、} \lim_{n \to \infty} F_n(x) = F(x)$$

記号:$X_n \xrightarrow{d} X$ または $X_n \Rightarrow X$

【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、$X_n$ の分布関数 $F_n(x)$ が $X$ の分布関数 $F(x)$ に近づく」

言い換えると:
「$X_n$ の分布の『形』が $X$ の分布の『形』に近づく」
💡 法則収束の直感的イメージ

確率収束:実現値が特定の値に近づく
法則収束:分布の形が特定の分布に近づく

例:中心極限定理
$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$
これは「標本平均の標準化の分布が標準正規分布に近づく」という意味

1.3 確率収束と法則収束の関係

⭐ 収束の強さの関係(重要!) $$\text{確率収束} \Rightarrow \text{法則収束} \quad \text{(常に成り立つ)}$$ $$\text{法則収束} \not\Rightarrow \text{確率収束} \quad \text{(一般には成り立たない!)}$$ 【意味】
・確率収束の方が「強い」収束
・確率収束すれば、自動的に法則収束もする
・しかし、分布が近づいても、実現値が近づくとは限らない

例題2:法則収束するが確率収束しない例

問題:$X$ は標準正規分布 $N(0,1)$ に従う確率変数とする。$X_n = (-1)^n X$ とおくとき、$X_n$ は法則収束するが確率収束しないことを示せ。

解答:

【法則収束の確認】
$n$ が偶数のとき:$X_n = X \sim N(0, 1)$
$n$ が奇数のとき:$X_n = -X \sim N(0, 1)$($-X$ も標準正規分布)

どちらの場合も $X_n \sim N(0, 1)$ なので、
$X_n \xrightarrow{d} N(0, 1)$ ✓

【確率収束しないことの確認】
もし $X_n$ がある値 $c$ に確率収束するなら、
$X_{n+1}$ も $c$ に確率収束し、$|X_n – X_{n+1}| \xrightarrow{p} 0$ となるはず。

しかし、 $$|X_n – X_{n+1}| = |(-1)^n X – (-1)^{n+1} X| = |2X|$$ $$P(|X_n – X_{n+1}| > \varepsilon) = P(|2X| > \varepsilon) = P\left(|X| > \frac{\varepsilon}{2}\right) > 0$$ これは $n$ によらず正の値なので、0 に収束しない。
よって、確率収束しない

【直感的理解】
$X_n$ は $n$ ごとに $+X$ と $-X$ を行ったり来たりしている。
分布の「形」は同じだが、実現値は落ち着かない。

2. 大数の法則

2.0 大数の法則とは?(直感的理解)

📊 大数の法則の日常的な意味

コイントスの例:
公正なコインを投げると、表が出る確率は $p = 0.5$

10回投げる → 表が3回(30%)かもしれないし、7回(70%)かもしれない
100回投げる → 表が45回(45%)〜55回(55%)あたりに収まりやすい
10000回投げる → 表が49%〜51%にほぼ確実に収まる

「試行回数を増やすと、観測された割合は真の確率に近づく」
これが大数の法則の本質!

2.1 大数の弱法則

大数の弱法則(Weak Law of Large Numbers)

$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$、$V(X_i) = \sigma^2 < \infty$ のとき: $$\bar{X}_n = \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{p} \mu$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、標本平均 $\bar{X}_n$ は母平均 $\mu$ に確率収束する」

【実務での意味】
・標本を増やせば、推定値は真の値に近づく
・これが「推定」という行為の理論的正当化

例題3:大数の弱法則の証明(チェビシェフの不等式を使用)

問題:チェビシェフの不等式を使って、大数の弱法則を証明せよ。

解答:

【使う道具:チェビシェフの不等式】
任意の確率変数 $Y$ と $\varepsilon > 0$ に対して、 $$P(|Y – E(Y)| \geq \varepsilon) \leq \frac{V(Y)}{\varepsilon^2}$$ 【準備:$\bar{X}_n$ の期待値と分散】 $$E(\bar{X}_n) = E\left(\frac{1}{n}\sum X_i\right) = \frac{1}{n}\sum E(X_i) = \frac{1}{n} \times n\mu = \mu$$ $$V(\bar{X}_n) = V\left(\frac{1}{n}\sum X_i\right) = \frac{1}{n^2}\sum V(X_i) = \frac{1}{n^2} \times n\sigma^2 = \frac{\sigma^2}{n}$$ (独立なので分散は足せる、係数 $\frac{1}{n}$ は2乗される)

【チェビシェフの不等式を適用】
任意の $\varepsilon > 0$ に対して、 $$P(|\bar{X}_n – \mu| \geq \varepsilon) \leq \frac{V(\bar{X}_n)}{\varepsilon^2} = \frac{\sigma^2}{n\varepsilon^2}$$ 【$n \to \infty$ の極限をとる】
$n \to \infty$ のとき、$\frac{\sigma^2}{n\varepsilon^2} \to 0$
よって、$P(|\bar{X}_n – \mu| \geq \varepsilon) \to 0$

【結論】
$\bar{X}_n \xrightarrow{p} \mu$ ✓

【ポイント】
$V(\bar{X}_n) = \frac{\sigma^2}{n}$ が $n$ とともに 0 に近づくことが本質!
分散が小さくなる = ばらつきが減る = 真の値に近づく

2.2 大数の強法則

大数の強法則(Strong Law of Large Numbers)

$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$ のとき: $$P\left(\lim_{n \to \infty} \bar{X}_n = \mu\right) = 1$$ 【日本語で言うと(読み方)】
「確率1で(ほぼ確実に)、$n$ が無限大に近づくとき、標本平均は母平均に収束する」

【弱法則との違い】
・弱法則:「近づく確率が1に近づく」
・強法則:「確率1で近づく」(より強い主張)

準1級では弱法則を中心に学びます。強法則は「より強い定理がある」と覚えておけばOK。

2.3 大数の法則の応用:モンテカルロ法

💡 実務での応用:モンテカルロ法

大数の法則は、シミュレーションによる数値計算の理論的基礎となります。

例:円周率 $\pi$ の推定
  1. 単位正方形 $[0,1] \times [0,1]$ 内にランダムに点を打つ
  2. 点が単位円内($x^2 + y^2 \leq 1$)に入る確率は $\frac{\pi}{4}$
  3. $n$ 個の点のうち $m$ 個が円内に入ったとき、$\hat{\pi} = \frac{4m}{n}$
  4. 大数の法則より、$n \to \infty$ で $\hat{\pi} \to \pi$

3. 中心極限定理

3.0 中心極限定理とは?(直感的理解)

📊 中心極限定理のすごさ

大数の法則:「$\bar{X}$ は $\mu$ に近づく」(点の話)
中心極限定理:「$\bar{X}$ の分布は正規分布に近づく」(分布の話)

驚くべきこと:
元の分布が何であっても(正規分布でなくても!)、
標本平均の分布は正規分布に近づく。

コイントス(ベルヌーイ分布)の平均 → 正規分布に近づく
サイコロ(離散一様分布)の平均 → 正規分布に近づく
指数分布の平均 → 正規分布に近づく
どんな分布でも → 正規分布に近づく!

これが「正規分布が統計学で最も重要」と言われる理由です!

3.1 中心極限定理の主張

⭐ 中心極限定理(Central Limit Theorem, CLT)

$X_1, X_2, \ldots, X_n$ が独立同分布で、$E(X_i) = \mu$、$V(X_i) = \sigma^2 < \infty$ のとき: $$\frac{\sqrt{n}(\bar{X}_n - \mu)}{\sigma} \xrightarrow{d} N(0, 1)$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、標本平均から母平均を引いて $\sqrt{n}$ をかけ、$\sigma$ で割ったものは、標準正規分布に法則収束する」

または同じことを別の書き方で($n$ が大きいとき近似的に): $$\bar{X}_n \approx N\left(\mu, \frac{\sigma^2}{n}\right)$$ 【条件の確認】
・独立:各観測が互いに影響しない
・同分布:同じ母集団からのサンプリング
・分散が有限:$\sigma^2 < \infty$(ほとんどの実用的な分布で成り立つ)
💡 なぜ「標準化」するのか?

$\bar{X}_n$ は $n$ によって分散が変わる($\sigma^2/n$)
標準化 $\frac{\bar{X}_n – \mu}{\sigma/\sqrt{n}}$ すると、分散が常に1になる
これにより、異なる $n$ での比較が可能になる

標準化の意味:
「$\bar{X}_n$ が $\mu$ から $\frac{\sigma}{\sqrt{n}}$ の単位でどれくらい離れているか」を測る

例題4:中心極限定理の応用(詳細解説)

問題:サイコロを100回投げたとき、出た目の合計が320以上になる確率を求めよ。

解答:

【問題の整理】
$X_i$ = $i$ 回目の出た目(1, 2, 3, 4, 5, 6のいずれか)
$S = X_1 + X_2 + \cdots + X_{100}$ = 合計
求めるもの:$P(S \geq 320)$

【サイコロの期待値と分散】 $$E(X_i) = \frac{1+2+3+4+5+6}{6} = \frac{21}{6} = 3.5$$ $$E(X_i^2) = \frac{1+4+9+16+25+36}{6} = \frac{91}{6}$$ $$V(X_i) = E(X_i^2) – \{E(X_i)\}^2 = \frac{91}{6} – (3.5)^2 = \frac{35}{12} \approx 2.917$$ 【合計 $S$ の期待値と分散】 $$E(S) = 100 \times E(X_i) = 100 \times 3.5 = 350$$ $$V(S) = 100 \times V(X_i) = 100 \times \frac{35}{12} = \frac{875}{3} \approx 291.67$$ $$\sigma_S = \sqrt{\frac{875}{3}} \approx 17.08$$ 【中心極限定理を適用】
$n = 100$ は十分大きいので、 $$Z = \frac{S – 350}{17.08} \approx N(0, 1)$$ 【確率の計算】 $$P(S \geq 320) = P\left(\frac{S – 350}{17.08} \geq \frac{320 – 350}{17.08}\right) = P(Z \geq -1.76)$$ $$= 1 – P(Z < -1.76) = 1 - 0.0392 \approx 0.9608$$ 【解釈】
サイコロを100回投げたとき、合計が320以上になる確率は約96%

3.2 中心極限定理の「$n \geq 30$」ルール

💡 「$n \geq 30$ なら正規近似OK」の意味

よく「$n \geq 30$ なら中心極限定理が使える」と言われますが、これは目安です。

実際には元の分布の形状によって異なります:

元の分布 必要な $n$
正規分布に近い(対称、単峰) $n = 5 \sim 10$ でも十分
対称だが裾が重い $n = 30 \sim 50$ 程度
非対称(歪んだ分布) $n = 50 \sim 100$ 以上が必要
非常に歪んだ分布 $n = 100$ 以上が望ましい

4. デルタ法

4.0 デルタ法とは?(なぜ必要か)

📊 デルタ法が必要な場面

中心極限定理で「$\bar{X}$ の分布は正規分布に近づく」ことがわかりました。
では、$\bar{X}$ の関数($\log(\bar{X})$、$\sqrt{\bar{X}}$、$1/\bar{X}$ など)の分布は?

例:
・オッズ比の信頼区間(log変換が必要)
・比率の平方根の分布(安定化変換)
・2つの平均の比の分布

デルタ法は、統計量の関数の漸近分布を求める強力な道具!

4.1 デルタ法の主張

⭐ デルタ法(Delta Method)

$\sqrt{n}(\bar{X}_n – \mu) \xrightarrow{d} N(0, \sigma^2)$ のとき、
$g(x)$ が微分可能で $g'(\mu) \neq 0$ ならば: $$\sqrt{n}\{g(\bar{X}_n) – g(\mu)\} \xrightarrow{d} N\left(0, \{g'(\mu)\}^2 \sigma^2\right)$$ 【日本語で言うと(読み方)】
「$n$ が無限大に近づくとき、$g(\bar{X}_n)$ から $g(\mu)$ を引いて $\sqrt{n}$ をかけたものは、平均0、分散 $\{g'(\mu)\}^2 \sigma^2$ の正規分布に法則収束する」

または同じことを別の書き方で($n$ が大きいとき近似的に): $$g(\bar{X}_n) \approx N\left(g(\mu), \frac{\{g'(\mu)\}^2 \sigma^2}{n}\right)$$
💡 デルタ法のアイデア:テイラー展開

$g(\bar{X})$ を $\mu$ の周りでテイラー展開: $$g(\bar{X}) \approx g(\mu) + g'(\mu)(\bar{X} – \mu)$$ 両辺から $g(\mu)$ を引いて $\sqrt{n}$ をかけると: $$\sqrt{n}\{g(\bar{X}) – g(\mu)\} \approx g'(\mu) \times \sqrt{n}(\bar{X} – \mu)$$ 右辺は $N(0, \sigma^2)$ に従うものに $g'(\mu)$ をかけたもの
→ $N(0, \{g'(\mu)\}^2\sigma^2)$ に従う

例題5:デルタ法の適用(平方根の例)

問題:$\bar{X}_n \approx N(\mu, \sigma^2/n)$ のとき、$\sqrt{\bar{X}_n}$ の漸近分布を求めよ($\mu > 0$)。

解答:

【関数と導関数】 $$g(x) = \sqrt{x}$$ $$g'(x) = \frac{1}{2\sqrt{x}}$$ $$g'(\mu) = \frac{1}{2\sqrt{\mu}}$$ 【デルタ法の適用】 $$\sqrt{n}\{\sqrt{\bar{X}_n} – \sqrt{\mu}\} \xrightarrow{d} N\left(0, \{g'(\mu)\}^2 \sigma^2\right) = N\left(0, \frac{\sigma^2}{4\mu}\right)$$ 【漸近分布】 $$\sqrt{\bar{X}_n} \approx N\left(\sqrt{\mu}, \frac{\sigma^2}{4n\mu}\right)$$ 【確認】
・期待値は $\sqrt{\mu}$(元の期待値の平方根)
・分散は $\frac{\sigma^2}{4n\mu}$(元の分散を $4\mu$ で割って $n$ で割る)

例題6:デルタ法の適用(対数の例)

問題:$\bar{X}_n \approx N(\mu, \sigma^2/n)$ のとき、$\log(\bar{X}_n)$ の漸近分布を求めよ($\mu > 0$)。

解答:

【関数と導関数】 $$g(x) = \log(x)$$ $$g'(x) = \frac{1}{x}$$ $$g'(\mu) = \frac{1}{\mu}$$ 【デルタ法の適用】 $$\sqrt{n}\{\log(\bar{X}_n) – \log(\mu)\} \xrightarrow{d} N\left(0, \frac{\sigma^2}{\mu^2}\right)$$ 【漸近分布】 $$\log(\bar{X}_n) \approx N\left(\log(\mu), \frac{\sigma^2}{n\mu^2}\right)$$ 【応用】
オッズ比の信頼区間を求めるときに使う!
$\log(\text{オッズ比})$ の分散を求めてから、元に戻す。

5. スルツキーの定理

5.1 スルツキーの定理

スルツキーの定理(Slutsky’s Theorem)
$X_n \xrightarrow{d} X$、$Y_n \xrightarrow{p} c$ のとき: $$X_n + Y_n \xrightarrow{d} X + c$$ $$X_n \cdot Y_n \xrightarrow{d} c \cdot X$$ $$\frac{X_n}{Y_n} \xrightarrow{d} \frac{X}{c} \quad (c \neq 0)$$ 【日本語で言うと(読み方)】
「法則収束するものと確率収束するものを足したり掛けたりすると、定数との演算と同じになる」

【重要な応用】
$\sigma$ が未知のとき、$\sigma$ の代わりに $S_n$(標本標準偏差)を使える!

例題7:スルツキーの定理の応用

問題:$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$、$S_n \xrightarrow{p} \sigma$ のとき、$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n}$ の漸近分布を求めよ。

解答:

【わかっていること】
・$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(中心極限定理)
・$S_n \xrightarrow{p} \sigma$(標本標準偏差の一致性)

【式の変形】 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} = \frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \times \frac{\sigma}{S_n}$$ 【スルツキーの定理を適用】
・$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$
・$\frac{\sigma}{S_n} \xrightarrow{p} \frac{\sigma}{\sigma} = 1$(連続写像定理より)

スルツキーの定理より、 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} \xrightarrow{d} N(0, 1) \times 1 = N(0, 1)$$ 【実務での意味】
$\sigma$ が未知でも、$S_n$ で置き換えれば漸近的には同じ分布!
これが「大標本では $t$ 検定と $z$ 検定が同じになる」理由です。

5.2 連続写像定理

連続写像定理(Continuous Mapping Theorem)
$X_n \xrightarrow{d} X$、$g(\cdot)$ が連続関数のとき: $$g(X_n) \xrightarrow{d} g(X)$$ $X_n \xrightarrow{p} c$、$g(\cdot)$ が連続のとき: $$g(X_n) \xrightarrow{p} g(c)$$

読み方:「連続関数を通しても収束性は保たれる」

📝 練習問題

問題 1

確率収束の定義

$X_n = c + \frac{1}{n^2}$ のとき、$X_n \xrightarrow{p} c$ を示せ。

解答:
任意の $\varepsilon > 0$ に対して、 $$P(|X_n – c| > \varepsilon) = P\left(\left|\frac{1}{n^2}\right| > \varepsilon\right) = P\left(\frac{1}{n^2} > \varepsilon\right)$$ $n > \frac{1}{\sqrt{\varepsilon}}$ のとき、$\frac{1}{n^2} < \varepsilon$ なので、$P\left(\frac{1}{n^2} > \varepsilon\right) = 0$ よって、$\displaystyle\lim_{n \to \infty} P(|X_n – c| > \varepsilon) = 0$ ✓
問題 2

大数の弱法則の応用

コインを100回投げる。表が出る回数を $X$ とする。$P(0.4 \leq X/100 \leq 0.6)$ の下限をチェビシェフの不等式で求めよ。

解答: $$\mu = 0.5, \quad \sigma^2 = 0.5 \times 0.5 = 0.25$$ $$V(X/100) = \frac{0.25}{100} = 0.0025$$ チェビシェフの不等式より、 $$P(|X/100 – 0.5| > 0.1) \leq \frac{V(X/100)}{(0.1)^2} = \frac{0.0025}{0.01} = 0.25$$ よって、 $$P(0.4 \leq X/100 \leq 0.6) = P(|X/100 – 0.5| \leq 0.1) \geq 1 – 0.25 = 0.75$$
問題 3

中心極限定理(二項分布)

$X \sim B(100, 0.3)$ のとき、$P(X \leq 25)$ を正規近似で求めよ。

解答: $$E(X) = 100 \times 0.3 = 30$$ $$V(X) = 100 \times 0.3 \times 0.7 = 21$$ $$\sigma = \sqrt{21} \approx 4.58$$ 連続性の補正を使って、 $$P(X \leq 25) \approx P(X \leq 25.5) = P\left(\frac{X – 30}{4.58} \leq \frac{25.5 – 30}{4.58}\right)$$ $$= P(Z \leq -0.98) \approx 0.1635$$
問題 4

デルタ法(対数変換)

$\sqrt{n}(\bar{X}_n – \mu) \xrightarrow{d} N(0, \sigma^2)$ のとき、$\log(\bar{X}_n)$ の漸近分布を求めよ($\mu > 0$)。

解答: $$g(x) = \log x, \quad g'(x) = \frac{1}{x}, \quad g'(\mu) = \frac{1}{\mu}$$ デルタ法より、 $$\sqrt{n}(\log \bar{X}_n – \log \mu) \xrightarrow{d} N\left(0, \frac{\sigma^2}{\mu^2}\right)$$ $$\log \bar{X}_n \approx N\left(\log \mu, \frac{\sigma^2}{n\mu^2}\right)$$
問題 5

スルツキーの定理

$X_n \xrightarrow{d} N(0, 1)$、$Y_n \xrightarrow{p} 2$ のとき、$X_n + Y_n$ の漸近分布を求めよ。

解答:
スルツキーの定理より、 $$X_n + Y_n \xrightarrow{d} N(0, 1) + 2 = N(2, 1)$$
問題 6

指数分布の標本平均

$X_i \sim \text{Exp}(\lambda)$(指数分布)が独立のとき、$\sqrt{n}(\bar{X}_n – 1/\lambda)$ の漸近分布を求めよ。

解答:
指数分布:$E(X) = \frac{1}{\lambda}$、$V(X) = \frac{1}{\lambda^2}$ 中心極限定理より、 $$\sqrt{n}\left(\bar{X}_n – \frac{1}{\lambda}\right) \xrightarrow{d} N\left(0, \frac{1}{\lambda^2}\right)$$
問題 7

標本比率の漸近分布

$n$ 回の試行で成功が $X$ 回。$\hat{p} = X/n$ とする。$\sqrt{n}(\hat{p} – p)$ の漸近分布を求めよ。

解答:
$X \sim B(n, p)$ より、 $$E(\hat{p}) = p, \quad V(\hat{p}) = \frac{p(1-p)}{n}$$ 中心極限定理より、 $$\sqrt{n}(\hat{p} – p) \xrightarrow{d} N(0, p(1-p))$$
問題 8

連続性補正

なぜ二項分布を正規近似するとき、連続性の補正が必要か説明せよ。

解答:
二項分布は離散分布で、整数値しかとらない。
一方、正規分布は連続分布。

例:$P(X = 5)$ を近似するとき、
・連続性補正なし:点での確率(0になる)
・連続性補正あり:$P(4.5 \leq X \leq 5.5)$ を計算

これにより、より正確な近似が得られる。
問題 9

デルタ法(平方根)

$\hat{p} = X/n$ とする。$\sqrt{\hat{p}}$ の漸近分布を求めよ($p > 0$)。

解答: $$g(x) = \sqrt{x}, \quad g'(x) = \frac{1}{2\sqrt{x}}, \quad g'(p) = \frac{1}{2\sqrt{p}}$$ $\sqrt{n}(\hat{p} – p) \xrightarrow{d} N(0, p(1-p))$ より、デルタ法を適用して、 $$\sqrt{n}(\sqrt{\hat{p}} – \sqrt{p}) \xrightarrow{d} N\left(0, \left(\frac{1}{2\sqrt{p}}\right)^2 \times p(1-p)\right) = N\left(0, \frac{1-p}{4p}\right)$$ $$\sqrt{\hat{p}} \approx N\left(\sqrt{p}, \frac{1-p}{4np}\right)$$
問題 10

大標本での信頼区間

中心極限定理を使って、母平均 $\mu$ の漸近的95%信頼区間を求めよ($\sigma$ 未知)。

解答:
$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(中心極限定理)
$S_n \xrightarrow{p} \sigma$(一致性)

スルツキーの定理より、 $$\frac{\sqrt{n}(\bar{X}_n – \mu)}{S_n} \xrightarrow{d} N(0, 1)$$ よって、漸近的95%信頼区間は、 $$\bar{X}_n \pm 1.96 \times \frac{S_n}{\sqrt{n}}$$
📌 Step 5のまとめ
  • 確率収束と法則収束:「近づく」の2つの異なる意味を理解した
  • 大数の法則:$\bar{X}_n \xrightarrow{p} \mu$(標本平均が母平均に確率収束)
  • 中心極限定理:$\frac{\sqrt{n}(\bar{X}_n – \mu)}{\sigma} \xrightarrow{d} N(0, 1)$(標本平均の分布が正規分布に近づく)
  • デルタ法:$g(\bar{X}_n)$ の漸近分布は $N(g(\mu), \{g'(\mu)\}^2 \sigma^2/n)$
  • スルツキーの定理:法則収束と確率収束を組み合わせる方法

大標本理論は統計学の根幹!
これらの定理が、推定や検定の「大標本での近似」の理論的根拠になります。
次のStep 6では、これらを使って「統計的推定」を学びます。

📝

学習メモ

統計検定準1級対策 - Step 5

📋 過去のメモ一覧
#artnasekai #学習メモ
LINE