バナナでもわかる話

計量経済学・統計学が専門の大学院生です。統計学・経済学・投資理論・マーケティング等々に関する勉強・解説ブログ。ときどき趣味も。極力数式は使わずイメージで説明出来るよう心掛けていますが、時々暴走します。

統計検定1級対策解説~一様最強力検定編~

今回は、一様最強力検定の話をします。

目次

スポンサーリンク


仮説検定

とりあえず、ザックリと仮説検定の話をしていきます。

仮説検定とは、「ある仮説を否定(棄却)出来るかどうかを検討したい」だとか、「ある仮説に基づいて、何かしらの意思決定を行いたい(モデル選択等)」といった場合に利用する、判定方法です。

基本的な枠組みは次の通り。

帰無仮説と対立仮説

まず、棄却出来るかどうかを考えたい仮説として帰無仮説 H_0を考えます。
例えば、ある正規分布に従っているデータを考えた時に、恐らく期待値は0ではないはずだと考えたとします。しかし、これは予想であって、客観的な根拠がありません。そこで、帰無仮説として期待値が0であるという仮説を設けます。この仮説を、仮説検定を使って棄却出来れば、「このデータの期待値は0ではない」ということが出来ますね。

つまり
帰無仮説 H_0 : 期待値が0
対立仮説 H_1 : 期待値は0ではない

というような2種類の仮説をまず、設定するということですね。

誤差の確率

検定をするにあたっては、帰無仮説が正しいのか、対立仮説が正しいのか分からない状態で意思決定を行います。つまり、帰無仮説が正しい状況と対立仮説が正しい状況の両方を考えた上で、妥当な意思決定を検討しなければなりません。

そこで気になるのは次のような数値でしょう。


・帰無仮説が正しい時に棄却される確率 (第一種の誤差)
・対立仮説が正しい時に受容される確率 (第二種の誤差)

両方の確率が0、つまり確率1で正しい仮説を選べるような検定なら最高ですが、少し考えるとわかりますが、そのような状況はほとんど発生しません。どうしてもミスをする確率は出て来てしまいます。

そこで、とりあえず第一種の誤差は小さい値に抑え込もうという方針で妥協します。

そこで利用するのが有意水準です。

つまり、有意水準5%に決めるとは、(帰無仮説内の任意のパラメータにおいて)第一種の誤差を5%以下に抑え込むことを指します。

数学的に書くと、

まず、考える1変量パラメータをもつ確率分布を P_{\theta}とおく。
パラメータ空間全体を \Theta、帰無仮説におけるパラメータの集合を \omegaと置くと、対立仮説におけるパラメータの集合は \Theta-\omegaとなりますが、

棄却域を Rとすると、第一種の誤差は P_{\theta}(R),ただし\theta \in \omega

よって、有意水準 \alphaに決めるとは

 P_{\theta}(R)≦\alpha for all  \theta \in \omega


当然、仮説検定の性能を考えるのであれば、

対立仮説が正しい場合に、きちんと帰無仮説を棄却する確率も知りたいですよね。これを検出力(Power)と呼びます。

つまり、

 P_{\theta}(R) ただし \theta \in \Theta-\omega

を検出力と呼ぶわけです。

一様最強力検定

ここまでが前段で、ここからが本題です。
で、有意水準を使って第一種の誤差は固定しました。

よって、第一種の誤差はとりあえず置いておいて、第二種の誤差をできうる限り小さくしたい(つまり、検出力を大きくしたい)ということに注力することにしましょう。

そこで真っ先に思い浮かぶのが、「対立仮説が正しい場合のパラメータ空間内で一様に検出力が最大になるような検定問題を考えることが出来ないか?」ということです。

つまり、検定の方法は色々考えられるわけですけど、パラメータがどんな値を取ったとしても(対立仮説が正しいもとで)、検出力が最大になる最強の検定があれば、それを使えばいいですよね?


結論から言うと、普通はそんな検定はありません。統計検定1級公式教科書でも、「一般に、そのような検定は存在しない」と書かれています。


ただし、「一般に」成り立たないだけで、特殊なケースでは一様最強力検定が存在します。今回はそれを示すことにします。

単純仮説

単純仮説とは、パラメータ空間全体 \Thetaが2種類の要素しか持たず、帰無仮説 \omega=\{\theta_1\}、対立仮説 \Theta-\omega=\{\theta_2\}のような仮説を単純仮説と呼びます。

この時実は、棄却域として R^*=\{x : \frac{p_{\theta_2}(x)}{p_{\theta_1}(x)}≧k\}を設定することで、これは最強力検定になります。

証明

ここで、任意の標本空間の領域を R,有意水準を \alphaと置くことにします。

 P_{\theta_2}(R^*)-P_{\theta_2}(R)=\int_{\{R^* \cap R^c\}} p_{\theta_2}(x)dx - \int_{\{R^{*c} \cap R\}} p_{\theta_2}(x) dx

これは、 R^*=(R^* \cap R) + (R^* \cap R^c)なのですぐわかります。

ここで、 R^{*} \cap R^c R^*の部分集合なので、 p_{\theta_2}(x)≧k p_{\theta_1}(x)が成り立ちます。

よって、 \int_{\{R^* \cap R^c\}} p_{\theta_2}(x)dx ≧k \int_{\{R^* \cap R^c\}} p_{\theta_1}(x)dx

同様に考えると

  \int_{\{R^{*c} \cap R\}} p_{\theta_2}(x) dx <k  \int_{\{R^{*c} \cap R\}} p_{\theta_1}(x) dx

よって

 P_{\theta_2}(R^*)-P_{\theta_2}(R)≧k(P_{\theta_1}(R^*)-P_{\theta_1}(R))

ここで、有意水準で \alphaで抑えていることから

 P_{\theta_2}(R^*)-P_{\theta_2}(R)≧k(P_{\theta_1}(R^*)-P_{\theta_1}(R))≧0

よって

 P_{\theta_2}(R^*)≧P_{\theta_2}(R)

以上より最強力検定であることが示せた。