Step 16: 総合演習(理論問題)
これまで学んだ理論を総合的に確認し、本番レベルの問題に挑戦します
📚 このステップについて
このステップでは、統計学準1級レベルの理論問題に取り組みます。確率論、数理統計学、推定・検定理論など、これまで学んだすべての内容を統合した総合演習です。
実際の試験では理論問題と応用問題を合わせて90分です
Part 1: 確率論・確率分布
確率変数の変換
確率変数 $X$ が標準正規分布 $N(0,1)$ に従うとき、$Y = X^2$ の確率密度関数を求めよ。
また、$Y$ がどの分布に従うか答えよ。
Step 1: 累積分布関数を求める
$Y = X^2$ より $X = \pm\sqrt{Y}$
$Y > 0$ のとき:
$$F_Y(y) = P(Y \leq y) = P(X^2 \leq y)$$ $$= P(-\sqrt{y} \leq X \leq \sqrt{y})$$ $$= \Phi(\sqrt{y}) – \Phi(-\sqrt{y})$$ $$= 2\Phi(\sqrt{y}) – 1$$
Step 2: 確率密度関数を導出
$$f_Y(y) = \frac{dF_Y(y)}{dy} = 2 \cdot \phi(\sqrt{y}) \cdot \frac{1}{2\sqrt{y}} = \frac{\phi(\sqrt{y})}{\sqrt{y}}$$
$\phi(x) = \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{x^2}{2}\right)$ より:
$$f_Y(y) = \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{y}{2}\right) \cdot \frac{1}{\sqrt{y}} = \frac{1}{\sqrt{2\pi y}} \exp\left(-\frac{y}{2}\right) \quad (y > 0)$$
Step 3: 分布の識別
これは自由度1のカイ二乗分布 $\chi^2(1)$ の密度関数
一般形との比較:
$\chi^2(\nu)$ の密度関数: $$f(x) = \frac{1}{2^{\nu/2}\Gamma(\nu/2)} x^{\nu/2-1} \exp\left(-\frac{x}{2}\right)$$
$\nu = 1$ のとき: $$f(x) = \frac{1}{\sqrt{2\pi}} x^{-1/2} \exp\left(-\frac{x}{2}\right) = \frac{1}{\sqrt{2\pi x}} \exp\left(-\frac{x}{2}\right) \checkmark$$
【答】$Y \sim \chi^2(1)$
積率母関数の応用
$X_1, X_2$ が独立に $\text{Exp}(\lambda)$ に従うとき、$Y = X_1 + X_2$ の分布を
積率母関数を用いて求めよ。
Step 1: 指数分布の積率母関数
$X \sim \text{Exp}(\lambda)$ の密度関数: $$f(x) = \lambda e^{-\lambda x} \quad (x > 0)$$
積率母関数: $$M_X(t) = E[e^{tX}] = \int_0^{\infty} e^{tx} \cdot \lambda e^{-\lambda x} dx = \lambda \int_0^{\infty} e^{-(\lambda-t)x} dx = \frac{\lambda}{\lambda – t} \quad (t < \lambda)$$
Step 2: 和の積率母関数
$Y = X_1 + X_2$ で、$X_1$ と $X_2$ は独立より:
$$M_Y(t) = M_{X_1+X_2}(t) = M_{X_1}(t) \cdot M_{X_2}(t) = \frac{\lambda}{\lambda-t} \cdot \frac{\lambda}{\lambda-t} = \left(\frac{\lambda}{\lambda-t}\right)^2$$
Step 3: 分布の識別
ガンマ分布 $\Gamma(\alpha, \lambda)$ の積率母関数: $$M(t) = \left(\frac{\lambda}{\lambda-t}\right)^{\alpha}$$
$M_Y(t) = \left(\frac{\lambda}{\lambda-t}\right)^2$ より $\alpha = 2$
したがって、$Y \sim \Gamma(2, \lambda)$
確認:ガンマ分布の密度関数
$$f_Y(y) = \frac{\lambda^2}{\Gamma(2)} y e^{-\lambda y} = \lambda^2 y e^{-\lambda y} \quad (y > 0)$$
※ $\Gamma(2) = 1! = 1$
【答】$Y \sim \Gamma(2, \lambda)$(形状母数2、率母数 $\lambda$ のガンマ分布)
またはアーラン分布 $\text{Erlang}(2, \lambda)$ とも呼ばれる
条件付き期待値の計算
$(X, Y)$ が二変量正規分布に従い、以下のパラメータを持つ:
$E[X] = 2$, $E[Y] = 3$, $\text{Var}(X) = 4$, $\text{Var}(Y) = 9$, $\rho(X,Y) = 0.6$
(1) $E[Y|X=4]$ を求めよ。
(2) $\text{Var}(Y|X=4)$ を求めよ。
与えられた情報:
$\mu_X = 2$, $\mu_Y = 3$
$\sigma_X^2 = 4 \Rightarrow \sigma_X = 2$
$\sigma_Y^2 = 9 \Rightarrow \sigma_Y = 3$
$\rho = 0.6$
(1) 条件付き期待値
二変量正規分布の性質より: $$E[Y|X=x] = \mu_Y + \rho \frac{\sigma_Y}{\sigma_X}(x – \mu_X)$$
$x = 4$ を代入: $$E[Y|X=4] = 3 + 0.6 \times \frac{3}{2} \times (4-2) = 3 + 0.6 \times 1.5 \times 2 = 3 + 1.8 = 4.8$$
(2) 条件付き分散
二変量正規分布の性質より: $$\text{Var}(Y|X=x) = \sigma_Y^2(1 – \rho^2)$$
これは $x$ に依存しない!
$$\text{Var}(Y|X=4) = 9(1 – 0.6^2) = 9(1 – 0.36) = 9 \times 0.64 = 5.76$$
【答】
(1) $E[Y|X=4] = 4.8$
(2) $\text{Var}(Y|X=4) = 5.76$
補足:条件付き分布
$Y|X=4 \sim N(4.8, 5.76)$
条件付き分散は、相関により説明できない部分の分散を表す
Part 2: 推定理論
指数分布の最尤推定
$X_1, \ldots, X_n$ が独立に $\text{Exp}(\lambda)$ に従う。
(1) $\lambda$ の最尤推定量を求めよ。
(2) 最尤推定量の期待値と分散を求めよ。
(3) 最尤推定量は不偏推定量か?
(1) 最尤推定量
密度関数:$f(x; \lambda) = \lambda e^{-\lambda x}$
尤度関数: $$L(\lambda) = \prod_{i=1}^{n} \lambda e^{-\lambda x_i} = \lambda^n \exp\left(-\lambda \sum_{i=1}^n x_i\right)$$
対数尤度: $$\ell(\lambda) = n \log \lambda – \lambda \sum_{i=1}^n x_i$$
微分: $$\frac{d\ell}{d\lambda} = \frac{n}{\lambda} – \sum_{i=1}^n x_i$$
0とおく: $$\frac{n}{\hat{\lambda}} = \sum_{i=1}^n x_i \Rightarrow \hat{\lambda} = \frac{n}{\sum_{i=1}^n X_i} = \frac{1}{\bar{X}}$$
(2) 期待値と分散
$X \sim \text{Exp}(\lambda)$ より $E[X] = 1/\lambda$
したがって $E[\bar{X}] = 1/\lambda$
$\hat{\lambda} = 1/\bar{X}$ は非線形変換なので、$E[\hat{\lambda}] \neq 1/E[\bar{X}] = \lambda$
正確な計算:
$T = \sum X_i \sim \Gamma(n, \lambda)$ より $2\lambda T \sim \chi^2(2n)$
$\hat{\lambda} = n/T$ なので $E[\hat{\lambda}] = n \cdot E[1/T]$
$U = 2\lambda T \sim \chi^2(2n)$ とすると $T = U/(2\lambda)$
$$E[1/T] = E\left[\frac{2\lambda}{U}\right] = 2\lambda \cdot E\left[\frac{1}{U}\right] = 2\lambda \cdot \frac{1}{2n-2} = \frac{\lambda}{n-1}$$
したがって: $$E[\hat{\lambda}] = n \cdot \frac{\lambda}{n-1} = \frac{n\lambda}{n-1}$$
分散:
複雑な計算により: $$\text{Var}(\hat{\lambda}) = \frac{n\lambda^2}{(n-1)^2(n-2)} \quad (n > 2)$$
(3) 不偏性の判定
$E[\hat{\lambda}] = \frac{n\lambda}{n-1} \neq \lambda$
【答】$\hat{\lambda}$ は偏りのある推定量
不偏推定量: $$\hat{\lambda}^* = \frac{n-1}{\sum x_i} = \frac{n-1}{n\bar{X}}$$ $$E[\hat{\lambda}^*] = (n-1) \cdot \frac{\lambda}{n-1} = \lambda \checkmark$$
十分統計量と完備性
$X_1, \ldots, X_n$ が独立に $U(0, \theta)$ に従う。
(1) $\theta$ の十分統計量を求めよ。
(2) 因数分解定理を用いて(1)を証明せよ。
(3) この十分統計量は完備か?
(1) 十分統計量
$$T = \max\{X_1, \ldots, X_n\} = X_{(n)}$$
(2) 因数分解定理による証明
密度関数: $$f(x; \theta) = \frac{1}{\theta} \quad (0 < x < \theta)$$
同時密度関数: $$f(x_1, \ldots, x_n; \theta) = \prod_{i=1}^n \frac{1}{\theta} I(0 < x_i < \theta)$$ $$= \frac{1}{\theta^n} I(0 < x_{(1)}) I(x_{(n)} < \theta)$$ $$= \frac{1}{\theta^n} I(x_{(n)} < \theta) \cdot I(0 < x_{(1)})$$
ここで:
$g(t; \theta) = \frac{1}{\theta^n} I(t < \theta)$
$h(x_1, \ldots, x_n) = I(0 < x_{(1)})$
因数分解: $$f(x_1, \ldots, x_n; \theta) = g(x_{(n)}; \theta) \cdot h(x_1, \ldots, x_n)$$
因数分解定理より、$T = X_{(n)}$ は十分統計量 ✓
(3) 完備性
$T = X_{(n)}$ の密度関数を求める:
$$F_T(t) = P(X_{(n)} \leq t) = P(\text{すべての } X_i \leq t) = [P(X_1 \leq t)]^n = \left(\frac{t}{\theta}\right)^n \quad (0 < t < \theta)$$
密度関数: $$f_T(t) = n\left(\frac{t}{\theta}\right)^{n-1} \cdot \frac{1}{\theta} = \frac{nt^{n-1}}{\theta^n} \quad (0 < t < \theta)$$
完備性の確認:
$E[g(T)] = 0$ for all $\theta$ $\Rightarrow$ $g(T) = 0$ a.s.
$$\int_0^{\theta} g(t) \cdot \frac{nt^{n-1}}{\theta^n} dt = 0 \quad (\text{すべての } \theta)$$
これが成り立つのは $g(t) = 0$ a.e. のとき
【答】$T = X_{(n)}$ は十分かつ完備な統計量
補足:
レーマン・シェッフェの定理により、完備十分統計量の関数で不偏なものは一様最小分散不偏推定量(UMVUE)
クラメール・ラオの下限
$X_1, \ldots, X_n$ が独立に $N(\mu, \sigma^2)$ に従う。$\sigma^2$ は既知とする。
(1) $\mu$ のフィッシャー情報量 $I(\mu)$ を求めよ。
(2) $\mu$ の不偏推定量の分散の下限を求めよ。
(3) $\bar{X}$ はこの下限を達成するか確認せよ。
(1) フィッシャー情報量
対数尤度: $$\ell(\mu) = -\frac{n}{2} \log(2\pi\sigma^2) – \frac{1}{2\sigma^2}\sum_{i=1}^n(x_i – \mu)^2$$
スコア関数: $$S(\mu) = \frac{d\ell}{d\mu} = \frac{1}{\sigma^2}\sum_{i=1}^n(x_i – \mu) = \frac{n(\bar{X} – \mu)}{\sigma^2}$$
方法1:2階微分
$$\frac{d^2\ell}{d\mu^2} = -\frac{n}{\sigma^2}$$
フィッシャー情報量: $$I(\mu) = -E\left[\frac{d^2\ell}{d\mu^2}\right] = \frac{n}{\sigma^2}$$
方法2:スコアの分散
$$I(\mu) = \text{Var}(S(\mu)) = \text{Var}\left(\frac{n(\bar{X} – \mu)}{\sigma^2}\right) = \frac{n^2}{\sigma^4} \cdot \text{Var}(\bar{X}) = \frac{n^2}{\sigma^4} \cdot \frac{\sigma^2}{n} = \frac{n}{\sigma^2}$$
(2) クラメール・ラオの下限
$\mu$ の不偏推定量の分散の下限: $$\text{Var}(\hat{\mu}) \geq \frac{1}{I(\mu)} = \frac{\sigma^2}{n}$$
(3) $\bar{X}$ の有効性
$\bar{X}$ は $\mu$ の不偏推定量:$E[\bar{X}] = \mu$ ✓
$\bar{X}$ の分散: $$\text{Var}(\bar{X}) = \frac{\sigma^2}{n}$$
クラメール・ラオの下限と一致!
【答】
(1) $I(\mu) = n/\sigma^2$
(2) 下限 $= \sigma^2/n$
(3) $\bar{X}$ は下限を達成する有効推定量
結論:
$\bar{X}$ は $\mu$ の一様最小分散不偏推定量(UMVUE)
Part 3: 検定理論
尤度比検定
$X_1, \ldots, X_n$ が独立に $\text{Ber}(p)$ に従う。
$H_0: p = p_0$ vs $H_1: p \neq p_0$ を検定したい。
(1) 尤度比統計量 $\lambda$ を求めよ。
(2) $-2 \log \lambda$ の漸近分布を述べよ。
(3) 有意水準5%の棄却域を求めよ。($\chi^2_1(0.05) = 3.841$)
(1) 尤度比統計量
尤度関数: $$L(p) = p^{\sum x_i} (1-p)^{n – \sum x_i} = p^{n\bar{x}} (1-p)^{n(1-\bar{x})}$$
$H_0$ の下での最大尤度:
$$L_0 = L(p_0) = p_0^{n\bar{x}} (1-p_0)^{n(1-\bar{x})}$$
制約なしの最大尤度:
$\hat{p} = \bar{X}$(最尤推定量)
$$L_1 = L(\hat{p}) = \bar{X}^{n\bar{X}} (1-\bar{X})^{n(1-\bar{X})}$$
尤度比:
$$\lambda = \frac{L_0}{L_1} = \left[\frac{p_0^{\bar{X}} (1-p_0)^{1-\bar{X}}}{\bar{X}^{\bar{X}} (1-\bar{X})^{1-\bar{X}}}\right]^n$$
(2) 漸近分布
ウィルクスの定理より、$H_0$ の下で: $$-2 \log \lambda \xrightarrow{d} \chi^2(r)$$
$r = $ パラメータ数の差 $= 1 – 0 = 1$
したがって: $$-2 \log \lambda \xrightarrow{d} \chi^2_1$$
(3) 棄却域
有意水準 $\alpha = 0.05$ で: $$-2 \log \lambda > \chi^2_1(0.05) = 3.841$$
具体的な形:
$$-2 \log \lambda = 2n\left[\bar{X} \log\frac{\bar{X}}{p_0} + (1-\bar{X})\log\frac{1-\bar{X}}{1-p_0}\right]$$
この値が3.841より大きければ $H_0$ を棄却
【答】
(1) $\lambda = [p_0^{n\bar{X}}(1-p_0)^{n(1-\bar{X})}]/[\bar{X}^{n\bar{X}}(1-\bar{X})^{n(1-\bar{X})}]$
(2) $-2 \log \lambda \xrightarrow{d} \chi^2_1$
(3) 棄却域:$-2 \log \lambda > 3.841$
注:大標本では正規近似も可能
検出力の計算
$X \sim N(\mu, 1)$ から1つの観測値を得る。
$H_0: \mu = 0$ vs $H_1: \mu > 0$ を有意水準5%で検定する。
(1) 棄却域を求めよ。
(2) $\mu = 1$ のときの検出力を求めよ。
(3) 検出力を0.8以上にするために必要な標本サイズは?
(1) 棄却域
$H_0: \mu = 0$ の下で $X \sim N(0, 1)$
片側検定、$\alpha = 0.05$:
棄却域:$X > z_{0.05} = 1.645$
(2) 検出力($\mu = 1$)
検出力 $= P(H_0 \text{を棄却} | H_1 \text{が真})$
$= P(X > 1.645 | \mu = 1)$
$\mu = 1$ のとき $X \sim N(1, 1)$
標準化: $$P(X > 1.645) = P\left(\frac{X-1}{1} > \frac{1.645-1}{1}\right) = P(Z > 0.645)$$ $$= 1 – \Phi(0.645) \approx 1 – 0.7405 = 0.2595$$
検出力 $\approx 0.26$
(3) 必要な標本サイズ
$n$ 個の観測値 $X_1, \ldots, X_n$ から: $$\bar{X} \sim N(\mu, 1/n)$$
$H_0: \mu = 0$ の下で:
棄却域:$\bar{X} > 1.645/\sqrt{n}$
$\mu = 1$ での検出力が0.8: $$P(\bar{X} > 1.645/\sqrt{n} | \mu = 1) = 0.8$$
標準化: $$P\left(\frac{\bar{X}-1}{1/\sqrt{n}} > \frac{1.645/\sqrt{n} – 1}{1/\sqrt{n}}\right) = 0.8$$ $$P(Z > 1.645 – \sqrt{n}) = 0.8$$
$P(Z > c) = 0.8$ より $c = -0.842$
$$1.645 – \sqrt{n} = -0.842 \Rightarrow \sqrt{n} = 2.487 \Rightarrow n = 6.19$$
【答】
(1) 棄却域:$X > 1.645$
(2) 検出力 $\approx 0.26$
(3) 必要な標本サイズ:$n = 7$
検出力関数: $$\pi(\mu) = 1 – \Phi(1.645 – \sqrt{n} \cdot \mu)$$
$\mu$ が大きいほど検出力は高い
等分散性の検定
$X_1, \ldots, X_m \sim N(\mu_1, \sigma_1^2)$ および $Y_1, \ldots, Y_n \sim N(\mu_2, \sigma_2^2)$
2群は独立。$H_0: \sigma_1^2 = \sigma_2^2$ を検定したい。
(1) 検定統計量とその帰無分布を述べよ。
(2) $m=10$, $n=15$, $s_1^2=20$, $s_2^2=10$ のとき、
有意水準5%で検定せよ。($F_{9,14}(0.025) = 3.21$, $F_{9,14}(0.975) = 0.35$)
(1) 検定統計量
標本分散: $$S_1^2 = \frac{\sum(X_i – \bar{X})^2}{m-1}, \quad S_2^2 = \frac{\sum(Y_i – \bar{Y})^2}{n-1}$$
検定統計量: $$F = \frac{S_1^2}{S_2^2}$$
帰無分布:
$H_0$ の下で: $$(m-1)S_1^2/\sigma^2 \sim \chi^2(m-1)$$ $$(n-1)S_2^2/\sigma^2 \sim \chi^2(n-1)$$
したがって: $$F = \frac{S_1^2}{S_2^2} \sim F(m-1, n-1)$$
(2) 検定の実施
データ:$m = 10$, $n = 15$, $s_1^2 = 20$, $s_2^2 = 10$
検定統計量の値: $$f = \frac{20}{10} = 2.0$$
自由度:$(9, 14)$
両側検定($\alpha = 0.05$):
棄却域:
$F < F_{9,14}(0.975) = 0.35$ または $F > F_{9,14}(0.025) = 3.21$
観測値:$f = 2.0$
$0.35 < 2.0 < 3.21$
【答】
(1) $F = S_1^2/S_2^2 \sim F(m-1, n-1)$
(2) $f = 2.0$ は棄却域に入らない → $H_0$ を棄却できない
有意水準5%で等分散性は否定されない
注意:F検定は正規性の仮定に敏感。ルビーン検定やバートレット検定も考慮
最強力検定
$X \sim N(\mu, 1)$ から1つの観測値。
$H_0: \mu = 0$ vs $H_1: \mu = 1$ を検定する。
(1) 尤度比を求めよ。
(2) ネイマン・ピアソンの補題を用いて、有意水準 $\alpha = 0.05$ の最強力検定の棄却域を求めよ。
(3) この検定の検出力を求めよ。
(1) 尤度比
密度関数: $$f(x; \mu) = \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{(x-\mu)^2}{2}\right)$$
尤度比: $$\Lambda(x) = \frac{f(x; 1)}{f(x; 0)} = \frac{\exp(-(x-1)^2/2)}{\exp(-x^2/2)}$$ $$= \exp\left[\frac{-x^2 + 2x – 1 + x^2}{2}\right] = \exp\left(\frac{2x – 1}{2}\right) = \exp\left(x – \frac{1}{2}\right)$$
(2) 最強力検定の棄却域
ネイマン・ピアソンの補題:
$\Lambda(x) > k$ となる $x$ を棄却域とする
$$\exp\left(x – \frac{1}{2}\right) > k \Rightarrow x – \frac{1}{2} > \log k \Rightarrow x > \log k + \frac{1}{2}$$
$k$ は $P(X > \log k + 1/2 | \mu = 0) = \alpha$ を満たす:
$H_0$ の下で $X \sim N(0, 1)$
$$P(X > \log k + 1/2) = 0.05$$
$$\log k + \frac{1}{2} = z_{0.05} = 1.645 \Rightarrow \log k = 1.145$$
棄却域:$X > 1.645$
(3) 検出力
検出力 $= P(X > 1.645 | \mu = 1)$
$H_1$ の下で $X \sim N(1, 1)$
$$P(X > 1.645) = P(X – 1 > 0.645) = P(Z > 0.645) = 1 – \Phi(0.645) \approx 0.2595$$
【答】
(1) $\Lambda(x) = \exp(x – 1/2)$
(2) 棄却域:$X > 1.645$
(3) 検出力 $\approx 0.26$
補足:
この検定は片側検定と同じ。単純仮説 vs 単純対立仮説の場合、ネイマン・ピアソン検定は最も強力
- 確率変数の変換と積率母関数を用いた分布導出ができるようになった
- 条件付き期待値・分散の計算を習得した
- 最尤推定量の導出と性質の評価ができるようになった
- 十分統計量と完備性の理論を理解した
- フィッシャー情報量とクラメール・ラオの下限を計算できるようになった
- 尤度比検定と検出力の計算を習得した
- ネイマン・ピアソンの補題による最強力検定を理解した
学習メモ
統計検定準1級対策 - Step 16