バナナでもわかる話

開設当初は計量経済学・統計学が専門の大学院生でした。今はデータを扱うお仕事をしています。統計学・経済学・投資理論・マーケティング等々に関する勉強・解説ブログ。ときどき趣味も。極力数式は使わずイメージで説明出来るよう心掛けていますが、時々暴走します。

統計検定1級対策問題集~十分統計量編1~

今回は十分統計量に関する問題をまとめていきます。少し量が多いので、2回に分けます。
目次


スポンサーリンク


十分統計量とは

標本 Xとその分布のパラメータ \theta を考えます。この時、次の等式が成り立つ統計量 T(X)を十分統計量と呼びます。

 P(X=x|T(X)=t,\theta)=P(X=x|T(X)=t)

これは、どう解釈すれば良いかというと、

「パラメータ \thetaの情報を T(X)は十分に持っている」

と解釈出来ます。

等式を見ていただけるとわかるように \thetaがあろうと無かろうと、 Xの分布には変化がありません。

フィッシャーネイマンの分解定理

フィッシャーネイマンの分解定理

 T(X) \thetaの十分統計量であるとき、確率密度関数(確率質量関数)は次のように分解できる。

 f(x;\theta)=h(x)g(T(x),\theta)

これをフィッシャーネイマンの分解定理(factorization theorem)と呼びます。

この定理の証明は間違いなく出題されませんので、省略します。
というのも、この分解定理の証明には測度論を利用します。これは、1級範囲を逸脱していますし、実際公式教科書でも、しれっと証明を省略しています。

この定理を利用して、ある T(X)が十分統計量であることを証明します。

ベルヌーイ分布

ベルヌーイ分布の確率質量関数 f(x;p)は次のようでした。

 f(x;n,p)=p^x(1-p)^{1-x}

 x_1,\cdots,x_nのサンプルを独立同一に得たとすると、同時分布は

 P(x_1,\cdots,x_n ;n,p)=p^{\sum_{i=1}^n x_i}(1-p)^{n-\sum_{i=1}^n x_i}


ですが、この時、 T(X)=\sum_{i=1}^n x_iがパラメータ pの十分統計量であることを示します。

 P(x_1,\cdots,x_n ;n,p)=\frac{p}{1-p}^{\sum_{i=1}^n x_i} (1-p)^n=(\frac{p}{1-p})^{T(X)} (1-p)^n

この時 h(x)=1,g(T(x),p)=(\frac{p}{1-p})^{T(X)} (1-p)^nと見ると、フィッシャーネイマンの分解定理から、 T(X)=\sum_{i=1}^n x_iはパラメータ pの十分統計量です。


ポアソン分布

ポアソン分布の確率質量関数 f(x;p)は次のようでした。

 f(x;\lambda)=\frac{e^{-\lambda} \lambda^x}{x!}

 x_1,\cdots,x_nのサンプルを独立同一に得たとすると、同時分布は

 P(x_1,\cdots,x_n ;n,\lambda)=\frac{e^{-n\lambda} \lambda^{\sum_{i=1}^n x_i}}{\prod_{i=1}^n x_i}

ですが、この時、 T(X)=\sum_{i=1}^n x_iがパラメータ \lambdaの十分統計量であることを示します。

 P(x_1,\cdots,x_n ;n,\lambda)=\frac{1}{\prod_{i=1}^n x_i} e^{-n\lambda} \lambda^{\sum_{i=1}^n x_i}=\frac{1}{\prod_{i=1}^n x_i} e^{-n\lambda} \lambda^{T(X)}


 h(x)=\frac{1}{\prod_{i=1}^n x_i} ,g(T(x),\lambda)=e^{-n\lambda} \lambda^{T(X)}と見ると、フィッシャーネイマンの分解定理から T(X)=\sum_{i=1}^n x_iはパラメータ \lambdaの十分統計量です。


正規分布

正規分布の確率密度関数 f(x;\mu,\sigma)は次のようでした。

 f(x;\mu,\sigma)=\frac{1}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2\sigma^2})

 x_1,\cdots,x_nのサンプルを独立同一に得たとすると、同時分布は

 P(x_1,\cdots,x_n ;n,\mu,\sigma) = (2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{\sum_{i=1}^n (x_i-\mu)^2}{2\sigma^2})


この時、 T_{\mu}(X)=\sum_{i=1}^n x_iがパラメータ \muの十分統計量、 (T_{\mu}(X),T_{\sigma}(X))=(\sum_{i=1}^n x_i,\sum_{i=1}^n x_i^2)がパラメータ (\mu,\sigma)の十分統計量であることを示します。


 P(x_1,\cdots,x_n ;n,\mu,\sigma) = (2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{\sum_{i=1}^n x_i^2-2\mu \sum_{i=1}^n x_i+n\mu^2}{2\sigma^2})

まず、
 P(x_1,\cdots,x_n ;n,\mu,\sigma) =(2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{\sum_{i=1}^n x_i^2-2\mu T_{\mu}(X)+n\mu^2}{2\sigma^2})
 =(2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{\sum_{i=1}^n x_i^2}{2\sigma^2}) exp(-\frac{-2\mu T_{\mu}(X)+n\mu^2}{2 \sigma^2})

このように見ると、 h(x)=(2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{\sum_{i=1}^n x_i^2}{2\sigma^2})であり、
 g(T_{\mu}(X),\mu)=exp(-\frac{-2\mu T_{\mu}(X)+n\mu^2}{2 \sigma^2})のため、フィッシャーネイマンの分解定理から、 T_{\mu}(X) \muに関する十分統計量です。

また、
 P(x_1,\cdots,x_n ;n,\mu,\sigma) =(2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{T_{\sigma}(X)-2\mu T_{\mu}(X)+n\mu^2}{2\sigma^2})

であるので、

 h(x)=1,g(T_{\sigma}(X),T_{\mu}(X),\mu,\sigma)=(2 \pi \sigma^2)^{\frac{-n}{2}} exp(-\frac{T_{\sigma}(X)-2\mu T_{\mu}(X)+n\mu^2}{2\sigma^2})と見ると、 (T_{\mu}(X),T_{\sigma}(X))=(\sum_{i=1}^n x_i,\sum_{i=1}^n x_i^2)はパラメータベクトル (\mu,\sigma)の十分統計量ベクトルである。


分解定理を使わない例

当然、十分統計量かどうかは分解定理を使わずとも、定義から示すことも可能です。
ただ、計算がしんどいので、普通は分解定理で示します。

ベルヌーイ分布で考える場合、結構計算が簡単なのでこれで確認してみます。


ベルヌーイ分布の確率質量関数 f(x;p)は次のようでした。

 f(x;n,p)=p^x(1-p)^{1-x}

 x_1,\cdots,x_nのサンプルを独立同一に得たとすると、同時分布は

 P(x_1,\cdots,x_n ;n,p)=p^{\sum_{i=1}^n x_i}(1-p)^{n-\sum_{i=1}^n x_i}


ですが、この時、 T(X)=\sum_{i=1}^n x_iがパラメータ pの十分統計量であることを示します。


 P(x_1,\cdots,x_n |n,p)=p^{\sum_{i=1}^n x_i}(1-p)^{n-\sum_{i=1}^n x_i}=p^{T(X)}(1-p)^{n-T(X)}

ここで
 P(T(X)=t |n,p)=p^{t}(1-p)^{n-t} 1_{\{T(x)=t\}}

 P(x_1,\cdots,x_n,T(X)=t |n,p)= \sum_{x:\{T(x)=t\}} P(x_1,\cdots,x_n |n,p)=\begin{eqnarray*}
  && {}_n C _t \\
\end{eqnarray*} p^{T(X)}(1-p)^{n-T(X)}


以上より
 P(x_1,\cdots,x_n |n,p,T(X)=t)=\frac{P(T(X)=t |n,p)}{P(x_1,\cdots,x_n,T(X)=t |n,p)}=\frac{1}{\begin{eqnarray*}
  && {}_n C _t \\
\end{eqnarray*}} 1_{\{T(x)=t\}}=P(x_1,\cdots,x_n |n,T(X)=t)

確かに示せました。

統計検定1級対策問題集~ベータ分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回はベータ分布関連。
ガンマ分布の時と同様、部分積分をループさせる計算がいっぱい出てきます。
ベータ分布は部分積分ゲーなので、手を動かして慣れるのが良いかと思います。


スポンサーリンク


目次

ベータ分布の特徴

 f(x) =\frac{x^{\alpha-1} (1-x)^{\beta-1}}{B(\alpha,\beta)}
ただし B(\alpha,\beta)=\int_{0}^1 x^{\alpha-1} (1-x)^{\beta-1}dx

・連続値の分布
 0<x<1
 \alpha,\betaは正

非常にゴチャついていて、嫌になるかもしれませんが、よく見てください。
 B(\alpha,\beta)は単なる正規化定数(積分したらうまく1になるよう調整するための定数)に過ぎず、分布の本体は x^{\alpha-1} (1-x)^{\beta-1}であることがわかります。そう思うと、とっつきにくさは多少和らぐのではないでしょうか。

正規化定数の計算

ベータ分布の期待値や分散の導出、その他様々な計算で、次の性質を利用します。

 B(\alpha,\beta)=\frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)}

 \Gamma()はガンマ関数です。ガンマ分布の記事で嫌というほど使いましたね笑

まず、この性質について確認します。

 B(\alpha,\beta)=\int_{0}^1 x^{\alpha-1} (1-x)^{\beta-1}dx

 =\int_{0}^1 (\frac{1}{\alpha})^{'} (1-x)^{\beta-1} dx

 =\int_{0}^1 \frac{\beta-1}{\alpha} x^{\alpha} (1-x)^{\beta-2}dx

=\int_{0}^1 \frac{(\beta-1)(\beta-2)}{\alpha(\alpha+1)} x^{\alpha+1}(1-x)^{\beta-3}dx

 \cdots

 =\int_{0}^1 \frac{ \Gamma(\beta) \Gamma(\alpha) }{ \Gamma(\alpha+\beta-1) }  x^{\alpha+\beta-2} dx

 =\frac{\Gamma(\beta) \Gamma(\alpha)}{\Gamma(\alpha+\beta)}

モーメント周りの計算

積率母関数は、存在するのですが導出しません。
というのも、ベータ分布の積率母関数はウィキか何かで調べてもらえればわかる通り、複雑すぎて役に立ちません。
実際公式テキスト(2015年出版時点)でも、ベータ分布の積率母関数は一切触れられず、スルーされています。
まあ、なので導出する必要もないだろうというわけで省略します。

期待値の導出

定義に従った計算

定義に従って期待値を求めてみます。
 E[x]=\frac{1}{B(\alpha,\beta)}\int_{0}^1 x^{\alpha} (1-x)^{\beta-1}dx

これも、さっき導出した B(\alpha,\beta)の計算と同様の手順をひたすら繰り返すと、

 = \frac{1}{B(\alpha,\beta)} \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)} \frac{\alpha}{\alpha+\beta}

 = \frac{\alpha}{\alpha+\beta}


スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[x^2] -(E[x])^2

 E[x^2] =\frac{1}{B(\alpha,\beta)}\int_{0}^1 x^{\alpha+1} (1-x)^{\beta-1}dx

これも、次数がズレただけでさっきと同じ部分積分の繰り返しですね。打ち込むのが大変なので省略します笑
一回は出しておいた方が良いと思います。

計算してやると

 Var[x]=\frac{\alpha \beta}{(\alpha+\beta)^2 (\alpha+\beta+1)}

になるはずです。


ベータ分布の導出

実は、ベータ分布は2つの独立なガンマ分布に従う確率変数を用いて導出出来ます。
 x_1 ~ Ga(\alpha_1,\beta)
 x_2 ~ Ga(\alpha_2,\beta)

について、
 X=\frac{x_1}{x_1+x_2}

 Y=x_1+x_2

と置きます。

この時、逆変換した際のヤコビアンは Yなので


 f(X,Y) = Y \frac{\beta^{\alpha_1}}{\Gamma(\alpha_1)} (XY)^{\alpha_1-1}exp(-\beta (XY)) \frac{\beta^{\alpha_2}}{\Gamma(\alpha_2)} (Y(1-X))^{\alpha_2-1} exp(-\beta Y(1-X))

 = \frac{\beta^{\alpha_1+\alpha_2}}{\Gamma(\alpha_1)\Gamma(\alpha_2)} X^{\alpha_1-1}(1-X)^{\alpha_2-1} Y^{\alpha_1+\alpha_2-1} exp(-\beta Y)

 \frac{\beta^{\alpha_1+\alpha_2}}{\Gamma(\alpha_1+\alpha_2)}  Y^{\alpha_1+\alpha_2-1} exp(-\beta Y)   \frac{X^{\alpha_1-1}(1-X)^{\alpha_2-1}}{B(\alpha_1,\alpha_2)}

はい、見事にガンマ分布の密度関数とベータ分布の密度関数の積に分解することが出来ました。あとはXに関して周辺分布を考えてやればよく、ガンマ分布の密度関数は全範囲で積分すると1になるので

Xはベータ分布に従います。

ちなみに、Yがガンマ分布に従うのは、ガンマ分布の再生性からある意味で自明ですね。




ベータ分布と二項分布の関係

ベータ分布の上側確率は二項分布の確率関数の和と解釈出来ます。

 \int_{p}^{1} \frac{x^{k-1} (1-x)^{n-k}}{B(k,n-k+1)}dx =\begin{eqnarray*}
  && {}_n C _{k-1} \\
\end{eqnarray*} p^{k-1} (1-p)^{n-k+1} + \int_{p}^{1} \frac{x^{k-2}(1-x)^{n-k+1}}{B(k-1,n-k+2)} dx

 \cdots

=\sum_{z=0}^{k-1} \begin{eqnarray*}
  && {}_n C _{z} \\  \end{eqnarray*} p^z (1-p)^{n-z}


リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回はガンマ分布関連。
ガンマ関数の処理に慣れるまでは難しいかもしれません。


スポンサーリンク


目次

ガンマ分布の特徴

 f(x) =\frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha-1}exp(-\beta x)

・連続値の分布
 x >0
 \alpha,\betaは正
 \Gamma(\alpha)=\int_{0}^{\infty} t^{\alpha-1}exp(-t) dt

ガンマ関数は、階乗を一般化したものです。


モーメント周りの計算

積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

計算していきます。

 E[exp(tx)]=\int_{0}^{\infty} \frac{\beta^{\alpha}}{\Gamma(\alpha)} x^{\alpha-1} exp(tx-\beta x) dx

 = \int_{0}^{\infty} \frac{\beta^{\alpha}}{\Gamma(\alpha) (\beta-t)^{\alpha-1}} ((\beta-t) x)^{\alpha-1} exp(tx-\beta x) dx

 = \frac{\beta^{\alpha}}{\Gamma(\alpha) (\beta-t)^{\alpha-1}} \int_{0}^{\infty}  ((\beta-t) x)^{\alpha-1} exp(-(\beta-t) x) dx

 =\frac{\beta^{\alpha}}{\Gamma(\alpha) (\beta-t)^{\alpha}}  \int_{0}^{\infty}  ((\beta-t) x)^{\alpha-1} exp(-(\beta-t) x) d((\beta-t)x)

 =\frac{\beta^{\alpha} \Gamma(\alpha)}{\Gamma(\alpha) (\beta-t)^{\alpha}}

 =(\frac{\beta}{\beta-t})^{\alpha}


期待値の導出

定義に従った計算

定義に従って期待値を求めてみます。
 E[x]=\int_{0}^{\infty} \frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha} exp(-\beta x) dx

 =\frac{1}{\Gamma(\alpha)} \int_{0}^{\infty} (\beta x)^{\alpha} exp(-\beta x) dx

 = \frac{1}{\beta \Gamma(\alpha)} \int_{0}^{\infty} (\beta x)^{\alpha} exp(-\beta x) d(\beta x)

 =\frac{\Gamma(\alpha+1)}{\Gamma(\alpha) \beta}

 =\frac{\alpha}{\beta}


スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[x^2] -(E[x])^2

 E[x^2] =\int_{0}^{\infty} \frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha+1} exp(-\beta x) dx

 = \int_{0}^{\infty} \frac{1}{\beta \Gamma(\alpha)} (\beta x)^{\alpha+1} exp(-\beta x) dx

 = \frac{1}{\beta^2 \Gamma(\alpha)} \int_{0}^{\infty}  (\beta x)^{\alpha+1} exp(-\beta x) d(\beta x)

 = \frac{\Gamma(\alpha+2)}{\beta^2 \Gamma(\alpha)}

 \frac{\alpha(\alpha+1)}{\beta^2}

 Var[x] = \frac{\alpha(\alpha+1)}{\beta^2} - \frac{\alpha^2}{\beta^2}=\frac{\alpha}{\beta^2}


ガンマ分布の再生性について

 x_1 ~ Ga(\alpha_1,\beta)
 x_2 ~ Ga(\alpha_2,\beta)

に関して、ガンマ分布は再生性がある。これは先ほど導出した積率母関数を考えると明らかで、

 (\frac{\beta}{\beta-t})^{\alpha_1} (\frac{\beta}{\beta-t})^{\alpha_2}=(\frac{\beta}{\beta-t})^{\alpha_1+\alpha_2}

積率母関数と分布は1対1対応するため、 x_1+x_2もガンマ分布することがわかる。

ガンマ分布とポアソン分布の関係

ガンマ分布の上側確率は適当な仮定のもとでポアソン確率関数の和と解釈出来ます。
この性質はポアソン過程を考える際に用います。


まず、 \alphaを1以上の正整数とする。そして正の実数 \omegaを用意して、次のようなものを考える。

 \int_{\omega}^{\infty} f(x) dx =\int_{\omega}^{\infty} \frac{\beta^{\alpha}}{\Gamma(\alpha)}x^{\alpha-1}exp(-\beta x) dx

 = -\int_{\omega}^{\infty} \frac{1}{\Gamma(\alpha)} (\beta x)^{\alpha-1} (exp(-\beta x))^{'} dx

 =-\{ [ \frac{(\beta x)^{\alpha-1}}{ exp(\beta x)\Gamma(\alpha)} ]_{\omega}^{\infty} - \int_{\omega}^{\infty} \frac{\alpha-1}{\Gamma(\alpha)}  (\beta x)^{\alpha-2} exp(-\beta x) dx \}

 =\frac{(\beta \omega)^{\alpha-1}  exp(-\beta \omega)}{ (\alpha-1)!} + \int_{\omega}^{\infty} \frac{1}{\Gamma(\alpha-1)}  (\beta x)^{\alpha-2} exp(-\beta x) dx

 =\frac{(\beta \omega)^{\alpha-1}  exp(-\beta \omega)}{ (\alpha-1)!} + \frac{(\beta \omega)^{\alpha-2}  exp(-\beta \omega)}{ (\alpha-2)!} + \cdots +\frac{(\beta \omega)^{\alpha-\alpha}  exp(-\beta \omega)}{ (\alpha-\alpha)!}

 =\sum_{k=0}^{\alpha-1} \frac{(\beta \omega)^k  exp(-\beta \omega)}{ k!}

これはパラメータ \beta \omegaのポアソン確率関数の和。


リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回は指数分布関連。
今回はそんなに難しい話はないです。



スポンサーリンク


目次

指数分布の特徴

 f(x) =\lambda exp(-\lambda x)

・連続値の分布
 x \in[0,\infty)


モーメント周りの計算

積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

計算していきます。

 E[exp(tx)]=\int_{0}^{\infty} \lambda exp(-\lambda x +tx ) dx

 =[\frac{\lambda}{t-\lambda} exp((t-\lambda)x) ]_{0}^{\infty}

ここで積率母関数のtは 0の近傍で定義されるため、
 t≦\lambda

 = \frac{\lambda}{\lambda-t}

期待値の導出

定義に従った計算

まず、定義に従って期待値を求めてみます。
 E[x]=\int_{0}^{\infty} \lambda x exp(-\lambda x) dx

 = -\int_{0}^{\infty} x (-\lambda exp(-\lambda x)) dx

 =-\{ [x exp(-\lambda x) ]_{0}^{\infty} - \int_{0}^{\infty}  exp(-\lambda x) dx \}

 =-\{0 -[ \frac{1}{-\lambda} exp(-\lambda x) ]_{0}^{\infty} \}

 =\frac{1}{\lambda}


スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[x^2] -(E[x])^2

 E[x^2] = \int_{0}^{\infty} \lambda x^2 exp(-\lambda x) dx

 =-\{ [x^2 exp(-\lambda x) ]_{0}^{\infty} -2\int_{0}^{\infty}  x exp(-\lambda x) dx \}

 = -\{0-\frac{2}{\lambda} E[x] \}

 =\frac{2}{\lambda^2}

 Var[x]=\frac{2}{\lambda^2} -\frac{1}{\lambda^2}=\frac{1}{\lambda^2}



指数分布の無記憶性の証明

指数分布には、無記憶性という特殊な性質があります。これは、どういう性質かというと次のような性質を指します。

 Prob(x>M)=\int_{M}^{\infty} \lambda exp(-\lambda x)dx

というようなM以上になる確率があるとします。ここで、 M=m_1+m_2とし、

 Prob(x>m_1+m_2)

を考えます。

ここで、追加的にどうやら x m_2より大きいらしいということがわかったとします。

つまり、このような条件付確率を考えます。

 Prob(x>m_1+m_2| x>m_2)

感覚的には Prob(x>m_1) Prob(x>m_1+m_2| x>m_2)では異なっていそうですが、指数分布を仮定した場合、この二つは同値になります。このことを示します。

 Prob(x>m_1)=\int_{m_1}^{\infty} \lambda x exp(-\lambda x)dx

 =exp(-\lambda m_1)

更に、

 Prob(x>m_1+m_2| x>m_2)=\frac{Prob(x>M)}{Prob(x>m_2)}=\frac{exp(-\lambda (m_1+m_2) )}{exp(-\lambda m_2)}=exp(-\lambda m_1)=Prob(x>m_1)


リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回は正規分布関連。
多変量正規分布はまた別記事でやるとして、今回は1変量の正規分布周りで必要な話を導出しておきます。



スポンサーリンク


目次

正規分布の特徴

 f(x) = \frac{1}{\sqrt{2 \pi \sigma^2}}exp(-\frac{(x-\mu)^2}{2\sigma^2})

・連続値の分布
 x \in \mathbb{R}
 \sigma≧0


モーメント周りの計算

積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

計算していきます。

 E[exp(tx)]=\int_{-\infty}^{\infty} \frac{exp(tx)}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2 \sigma^2}) dx

 =\int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi \sigma^2}} exp(tx-\frac{(x-\mu)^2}{2 \sigma^2}) dx

 z=\frac{x-\mu}{\sigma}とおくと、

 =\int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} exp(t\sigma z +t \mu-\frac{z^2}{2}) dz

 = exp(t\mu) \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} exp(-\frac{1}{2} \{ (z-t \sigma)^2 -t^2 \sigma^2\}) dz

 Z=z-t \sigmaとおくと、

 = exp(t\mu +\frac{t^2 \sigma^2}{2}) \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} exp(-\frac{1}{2}  Z^2 ) dZ

 = exp(t\mu +\frac{t^2 \sigma^2}{2})…(標準正規密度関数の和は1)

期待値の導出

定義に従った計算

まず、定義に従って期待値を求めてみます。
 E[x]=\int_{-\infty}^{\infty} \frac{x}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2 \sigma^2}) dx

 =\int_{-\infty}^{\infty} \frac{(x-\mu+\mu}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2 \sigma^2}) dx

 =\int_{-\infty}^{\infty} \frac{(x-\mu}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2 \sigma^2}) dx +\mu

 z=\frac{x-\mu}{\sigma}とおくと、

 = \int_{-\infty}^{\infty} \frac{\sigma z}{\sqrt{2 \pi}} exp(-\frac{z^2}{2}) dz +\mu

 = -\frac{\sigma}{\sqrt{2 \pi}}\int_{-\infty}^{\infty} (-z) exp(-\frac{z^2}{2}) dz +\mu

 = -\frac{\sigma}{\sqrt{2 \pi}} [exp(-\frac{z^2}{2}) ]_{-\infty}^{\infty} +\mu

 =\mu



スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=\int_{-\infty}^{\infty} \frac{(x-\mu)^2}{\sqrt{2 \pi \sigma^2}} exp(-\frac{(x-\mu)^2}{2 \sigma^2}) dx

ここで、 z=\frac{x-\mu}{\sigma}とおくと

 Var[x]=\sigma^2 \int_{-\infty}^{\infty} \frac{z^2}{\sqrt{2 \pi}} exp(-\frac{z^2}{2}) dz

 = -\sigma^2 \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} \{z(-z exp(-\frac{z^2}{2}))\} dz

ここで \int f^{'} ・ g=[f ・ g] -\int f ・ g^{'}を用いて

 = -\sigma^2\{ \frac{1}{\sqrt{2 \pi}} [z exp(-\frac{z^2}{2})]_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} exp(-\frac{z^2}{2}) dz \}

 =\sigma^2  \int_{-\infty}^{\infty} \frac{1}{\sqrt{2 \pi}} exp(-\frac{z^2}{2}) dz

 =\sigma^2

正規分布の再生性の証明

先ほど示したように、積率母関数は次のようでした。

 exp(t\mu +\frac{t^2 \sigma^2}{2})

異なる二つの正規分布の積率母関数の積は次のよう。

 exp(t(\mu_1+\mu_2) +\frac{t^2 (\sigma_1^2 +\sigma_2^2))}{2})

これはやはり正規分布。
積率母関数の一意性より、再生性が示せた。

リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回は負の二項分布関連。
統計検定1級は、割と分布の畳み込みと、モーメント関連の計算、近似計算が出来ればそこそこいけるので、その辺の計算問題を一通り用意しました。



スポンサーリンク


目次

負の二項分布の特徴

 P(x) = \begin{eqnarray*}
  && {}_{x+r-1} C _x \\
\end{eqnarray*} p^{r} (1-p)^{x}

・離散値の分布
 x ≧0
 p \in [0,1]
 r≧0


モーメント周りの計算

確率母関数の導出

確率母関数の定義は次の通りでした。
 E[t^x]

これを計算します。
 E[t^x]=\sum_{x=0}^{\infty} t^x \begin{eqnarray*}
  && {}_{x+r-1} C _x \\
\end{eqnarray*} p^{r} (1-p)^{x}

 = \sum_{x=0}^{\infty} \frac{(x+r-1)!}{x!(r-1)!} p^{r} \{t(1-p)\}^{x}

 =p^r \sum_{x=0}^{\infty} \frac{(x+r-1)!}{x!(r-1)!} \{t(1-p)\}^{x}

 =p^r \{\frac{1}{1-t(1-p)} \}^{r-1+1}…(一般二項定理)

 = \{\frac{p}{1-t(1-p)} \}^r


積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

確率母関数の時と同様の計算で出来ます。
 E[e^{tx}]= \sum_{x=0}^{\infty} e^{tx} \begin{eqnarray*}
  && {}_{x+r-1} C _x \\
\end{eqnarray*} p^{r} (1-p)^{x}

 = \sum_{x=0}^{\infty} \frac{(x+r-1)!}{x!(r-1)!} p^{r} \{ e^t (1-p) \}^x

 = p^r \{\frac{1}{1-e^t(1-p)}\}^r…(一般二項定理)

 \{ \frac{p}{1-e^t(1-p)}\}^r



期待値の導出

定義に従った計算

まず、定義に従って期待値を求めてみます。
 E[x]= \sum_{x=0}^{\infty} x \begin{eqnarray*}
  && {}_{x+r-1} C _x \\
\end{eqnarray*} p^{r} (1-p)^{x}

 = r p^r (1-p) \sum_{x=1}^{\infty} \frac{(x+r-1)!}{(x-1)! r!} (1-p)^{x-1}

 =r p^r (1-p) \{\frac{1}{1-(1-p)}\}^{r+1} …(一般二項定理)

 =\frac{r(1-p)}{p}


スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[(x-E[x])^2]=E[x^2-2xE[x]+E[x]^2]=E[x^2]-E[x]^2

ここで

 E[x(x-1)]= \sum_{x=0}^{\infty} x(x-1) \begin{eqnarray*}
  && {}_{x+r-1} C _x \\
\end{eqnarray*} p^{r} (1-p)^{x}

 = \sum_{x=2}^{\infty} \frac{x+r-1}{(x-2)! (r-1)!} p^r (1-p)^{x}

 = r(r+1) p^r (1-p)^2  \sum_{x=2}^{\infty} \frac{x+r-1}{(x-2)! (r+1)!}  (1-p)^{x}

 = r(r+1) p^r (1-p)^2 \{\frac{1}{1-(1-p)}\}^{r+2}

 =r(r+1) \{\frac{1-p}{p}\}^2

 Var[x]= r(r+1) \{\frac{1-p}{p}\}^2 + \frac{r(1-p)}{p} -\{\frac{r(1-p)}{p}\}^2

 =\frac{r(1-p)}{p^2}


ポアソン分布とガンマ分布を用いた負の二項分布の導出

ポアソン分布のパラメータ \lambdaの事前分布にガンマ分布を与えると、周辺分布が負の二項分布になります。
これを示します。

 x ~ Poi(\lambda) = \frac{e^{-\lambda} \lambda^x}{x!}

 \lambda ~ NB(\alpha,\beta) = \frac{\beta^{\alpha}}{\Gamma(\alpha)}\lambda^{\alpha-1} e^{-\beta \lambda}

 \int_0^{\infty}  \frac{e^{-\lambda} \lambda^x}{x!}  \frac{\beta^{\alpha}}{\Gamma(\alpha)}\lambda^{\alpha-1} e^{-\beta \lambda} d\lambda

 = \frac{\beta^{\alpha}}{x! \Gamma(\alpha)} \int_0^{\infty} \lambda^{x+\alpha-1} e^{-\lambda(1+\beta)} d\lambda

ここで、 \theta = \lambda(1+\beta)とおくと、

 =\frac{\beta^{\alpha}}{x! \Gamma(\alpha) (1+\beta)^{x+\alpha}} \int_0^{\infty} \theta^{x+\alpha-1} e^{-\theta} d\theta

 =\frac{\Gamma(x+\alpha)}{x! \Gamma(\alpha)} \{\frac{1}{1+\beta}\}^x \{ \frac{\beta}{1+\beta} \}^{\alpha}

これは負の二項分布。


負の二項分布の再生性の証明

先ほど示したように、積率母関数は次のようでした。

 \{ \frac{p}{1-e^t(1-p)}\}^r


 \{ \frac{p}{1-e^t(1-p)}\}^{r_1}\{ \frac{p}{1-e^t(1-p)}\}^{r_2}

 = \{\frac{p}{1-e^t(1-p)}\}^{r_1+r_2}

これはやはり負の二項分布。



積率母関数の一意性より、再生性が示せた。

リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回はポアソン分布関連。
統計検定1級は、割と分布の畳み込みと、モーメント関連の計算、近似計算が出来ればそこそこいけるので、その辺の計算問題を一通り用意しました。



スポンサーリンク


目次

ポアソン分布の特徴

 P(x) = \frac{e^{-\lambda} \lambda^x}{x!}

・離散値の分布
 x ≧0
 \lambdaは0以上の連続値


モーメント周りの計算

確率母関数の導出

確率母関数の定義は次の通りでした。
 E[t^x]

これを計算します。
 E[t^x]=\sum_{x=0}^{\infty} t^x \frac{e^{-\lambda} \lambda^x}{x!}

 = e^{-\lambda} \sum_{x=0}^{\infty} \frac{ (t \lambda)^x}{x!}

 =e^{-\lambda} e^{t \lambda}

 = e^{\lambda (t-1)}


積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

確率母関数の時と同様の計算で出来ます。
 E[e^{tx}]=\sum_{x=0}^{\infty} e^{tx} \frac{e^{-\lambda} \lambda^x}{x!}

 = e^{-\lambda} \sum_{x=0}^{\infty} \frac{ (e^t \lambda)^x}{x!}

 =e^{-\lambda} e^{e^t \lambda}

 = e^{\lambda (e^t-1)}

キュムラント母関数

後で使うのでついでにキュムラント母関数も定義しておきます。
これは、積率母関数に対して対数を取ったもので、次のように得られます。

積率母関数は e^{\lambda (e^t-1)}なので、

キュムラント母関数は \lambda (e^t-1)

期待値の導出

定義に従った計算

まず、定義に従って期待値を求めてみます。
 E[x]=\sum_{x=0}^{\infty} x \frac{e^{-\lambda} \lambda^x}{x!}

 = \sum_{x=1}^{\infty}  x \frac{e^{-\lambda} \lambda^x}{x!}

 =\lambda \sum_{x=1}^{\infty}  \frac{e^{-\lambda} \lambda^{x-1}}{(x-1)!}

 =\lambda e^{-\lambda} \sum_{x-1=0}^{\infty}  \frac{ \lambda^{x-1}}{(x-1)!}

 =\lambda e^{-\lambda} e^{\lambda}

 =\lambda

確率母関数を用いた導出

確率母関数は、微分して、tに1を代入することで、期待値が出ます。

ポアソン分布の確率母関数は
  e^{\lambda (t-1)}
でした。そこで、

 \frac{d e^{\lambda (t-1)}}{dt}=\lambda e^{\lambda (t-1)}

 t=1を代入すると期待値 \lambdaが得られる。

積率母関数を用いた導出

積率母関数は、微分して、tに0を代入することで、期待値が出ます。

ポアソン分布の積率母関数は、先ほど導出した通り
 e^{\lambda (e^t-1)}

そこで、
 \frac{d e^{\lambda (e^t-1)}}{dt} = \lambda  (e^t) e^{\lambda (e^t-1)}

 t=0を代入してやると期待値 \lambdaが得られる。

スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[(x-E[x])^2]=E[x^2-2xE[x]+E[x]^2]=E[x^2]-E[x]^2

 E[x(x-1)]=\sum_{x=0}^{\infty} x(x-1) \frac{e^{-\lambda} \lambda^x}{x!}

 = \lambda^2 \sum_{x=2}^{\infty} \frac{e^{-\lambda} \lambda^{x-2}}{(x-2)!}=\lambda^2

以上より、

 Var[x]=\lambda^2 +\lambda -\lambda^2=\lambda

確率母関数を用いた導出

確率母関数は二回微分することで次のような形になります。

 \frac{d^2E[t^x]}{dt^2}=E[x(x-1)t^{x-2}]

例のごとく t=1を代入すると

 E[x(x-1)]=E[x^2]-E[x]

この性質を利用します。

 \frac{d^2 e^{\lambda (t-1)}}{dt^2}=\lambda^2 e^{\lambda (t-1)}

 t=1を代入すると、 E[x(x-1)] = \lambda^2

以上より
 Var[x]=\lambda^2 +\lambda -\lambda^2=\lambda


積率母関数を用いた導出

積率母関数は二回微分することで次のようになります。

 \frac{d^2E[exp(tx)]}{dt^2}=E[x^2 exp(tx)]

 t=0を代入すると、 E[x^2]になりますね。この性質を利用します。

ポアソン分布の積率母関数は、先ほど導出した通り
 e^{\lambda (e^t-1)}

そこで、
 \frac{d^2 e^{\lambda (e^t-1)}}{dt^2} = \lambda  (e^t) e^{\lambda (e^t-1)}+\lambda^2 (e^t)^2 e^{\lambda (e^t -1)}

 t=0を代入すると、

 E[x^2] =\lambda^2 +\lambda



歪度の導出

歪度あたりから、定義通り計算するのも面倒になってくるので、積率母関数を利用することにします。

 E[\frac{(x-E[x])^3}{\sigma^3}] = \frac{E[x^3]-3E[x^2]E[x]+2E[x]^3}{\sigma^3}

 E[x^3]さえ求めればよいことがわかりますね。
積率母関数を3回微分してやって、

 \lambda e^t e^{\lambda (e^t-1)}+\lambda^2 (e^t)^2 e^{\lambda (e^t-1)}+2\lambda^2 e^t e^{\lambda (e^t -1)} + \lambda^3 (e^t)^3 (e^{\lambda (e^t-1)})^2

 t=0を代入すると

 E[x^3]=\lambda+3 \lambda^2 + \lambda^3

よって、歪度は次のように得られる。

 \frac{\lambda^3+3\lambda^2+\lambda-3\lambda(\lambda^2+\lambda)+2\lambda^3}{\lambda^3}=\lambda^{-\frac{1}{2}}


スポンサーリンク


二項分布を用いたポアソン分布の導出

二項分布に対して次のような仮定を施すとき、ポアソン分布が得られます。

 n\to \infty
 
  \lim_{n \to \infty} np
 =\lambda

これを示します。

ここで、二項分布の確率分布関数は次のようでした。
 P(x) = \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}


次のように変形していきます。
 P(x) = \frac{n!}{x!(n-x)!} p^x (1-p)^{n-x}

 =\frac{n \cdot (n-1) \cdots (n-x+1)}{x!} p^x (1-p)^{n-x}

 =\frac{np \cdot (n-1)p \cdots (n-x+1)p}{x!} \frac{ (1-p)^n}{(1-p)^x}

更に、
 
  \lim_{n \to \infty} np \cdot (n-1)p \cdots (n-x+1)p=\lambda^x

 
  \lim_{n \to \infty}  \frac{ (1-p)^n}{(1-p)^x} =  \lim_{n \to \infty} \frac{ (1-\frac{\lambda}{n})^n}{(1-\frac{\lambda}{n})^x} =e^{-\lambda}

よって

  \lim_{n \to \infty} P(x) = \frac{e^{-\lambda} \lambda^x}{x!}



ポアソン分布の再生性の証明

 Z_1がポアソン分布 Pois(\lambda_1) Z_2がポアソン分布 pois(\lambda_2)に従うとする。

この時、次のようにおく。

 u=Z_1+Z_2,v=Z_2

ここで、
 Z_1=u-v,Z_2=v

ヤコビアン |J|は1なので、

この時 u,vの同時分布 f_{u,v}は次のよう

 f_{u,v}=\frac{e^{-\lambda_1} \lambda_1^{u-v}}{(u-v)!} \frac{e^{-\lambda_2} \lambda_2^{v}}{v!}

よって、周辺分布 f_{u}は次のよう。

 f_{u} = \sum_{v=0}^{\infty} f_{u,v} = \sum_{v=0}^{\infty} \frac{ \begin{eqnarray*}
  && {}_u C _v \\
\end{eqnarray*} \lambda_1^{u-v} \lambda_2^{v}}{u!} e^{-(\lambda_1+\lambda_2)}

 = \frac{e^{-(\lambda_1+\lambda_2)} (\lambda_1+\lambda_2)^u}{u!} …(二項定理より)

これは、ポアソン分布。

ポアソン分布の正規近似

n→∞のケース

 n→\inftyでポアソン分布は正規分布に近似します。
これを示します。中心極限定理まで証明している時間は無いはずなので、中心極限定理の証明まではしません。

 Yがポアソン分布に従うとする。
ポアソン分布には再生性があることを先ほど示したので、

 X_1,\cdots ,X_nが独立同一にポアソン分布 Pois(\frac{\lambda}{n})に従うものとして、

 Y=\sum_{i=1}^{n} X_iと書ける。

ここで、 Yの分布関数 P(Y≦y)について

 P(Y≦y)=P(\sum_{i=1}^{n} X_i ≦y)=P(\frac{\sum_{i=1}^{n} (X_i-\frac{\lambda}{n})}{\sqrt{n} \sqrt{\frac{\lambda}{n}}} ≦\frac{y-\lambda}{\sqrt{\lambda}})=P(\frac{1}{\sqrt{n}} \sum_{i=1}^{n}  \frac{ (X_i-\frac{\lambda}{n})}{ \sqrt{\frac{\lambda}{n}}}  ≦\frac{y-\lambda}{\sqrt{\lambda}})

中心極限定理より、
 P(\frac{1}{\sqrt{n}} \sum_{i=1}^{n}  \frac{ (X_i-\frac{\lambda}{n})}{ \sqrt{\frac{\lambda}{n}}}  ≦\frac{y-\lambda}{\sqrt{\lambda}})≃\Phi(\frac{y-\lambda}{\sqrt{\lambda}})

λ→∞のケース

ポアソン分布はλを無限に飛ばしても正規近似します。これは、過去問でも出題されていましたね。

標準正規分布のキュムラント母関数は
 \frac{t^2}{2!}
です。

キュムラント母関数は分布と1対1対応するので、ポアソン分布のキュムラント母関数が、λを無限に飛ばすことで正規分布のものと一致することを示せばよいということになります。

 X がポアソン分布に従うとする。ここで、標準化したものを Zとおく。

 Z=\frac{X-\lambda}{\sqrt{\lambda}}

この時 Zのキュムラント母関数は

 log(E[e^{tZ}]=log(E[ e^{\frac{tX}{\sqrt{\lambda}}} e^{\frac{-t\lambda}{\sqrt{\lambda}}} ]) =-t \sqrt{\lambda} +\lambda(e^{\frac{t}{\sqrt{\lambda}}}-1)

ここで、tに関してマクローリン展開すると

 log(E[e^{tZ}]) = \frac{t^2}{2!}+\frac{1}{\sqrt{\lambda}}\frac{t^3}{3!}+o(\frac{1}{\sqrt{\lambda}})

 \lambda \to \inftyの時、 \frac{t^2}{2!}

これは、標準正規分布のキュムラント母関数。

リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

統計検定1級対策問題集~二項分布編~

統計検定1級対策のために役立ちそうな計算問題をまとめるやつやっていきます。
統計検定前の最終チェックや、統計検定の勉強何をすれば分からないという場合に活用ください。


今回は二項分布関連。
統計検定1級は、割と分布の畳み込みと、モーメント関連の計算、近似計算が出来ればそこそこいけるので、その辺の計算問題を一通り用意しました。



スポンサーリンク


目次

二項分布の特徴

 P(x) = \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

・離散値の分布
 x ≧0,n-x≧0
・nは正の整数
 p \in [0,1]


モーメント周りの計算

確率母関数の導出

確率母関数の定義は次の通りでした。
 E[t^x]

これを計算します。
 E[t^x]=\sum_{x=0}^{n} t^x \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 =\sum_{x=0}^{n} \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} (tp)^x (1-p)^{n-x}

 =(1-p+tp)^n…二項定理より


積率母関数の導出

積率母関数の定義は次の通りでした。
 E[exp(tx)]

確率母関数の時と同様の計算で出来ます。
 E[exp(tx)]=\sum_{x=0}^{n} exp(tx) \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 =\sum_{x=0}^{n} \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} (exp(t)p)^x (1-p)^{n-x}

 =(1-p+exp(t)p)^n…二項定理より


期待値の導出

定義に従った計算

まず、普通に定義に従って導出してみます。

 E[x] = \sum_{x=0}^{n} x \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 =\sum_{x=1}^{n} x \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 =\sum_{x=1}^{n}  \frac{x n!}{x! (n-x)!} p^x (1-p)^{n-x}

 =np \sum_{x=1}^{n}  \frac{(n-1)!}{(x-1)! \{(n-1)-(x-1)\}!} p^{x-1} (1-p)^{\{(n-1)-(x-1)\}}

 =np \sum_{x-1=0}^{n-1}  \begin{eqnarray*}
  && {}_{n-1} C _{x-1} \\
\end{eqnarray*} p^{x-1} (1-p)^{\{(n-1)-(x-1)\}}

 =np (p+1-p)^{n-1} …二項定理より

 =np


確率母関数を用いた導出

確率母関数は、微分して、tに1を代入することで、期待値が出ます。つまり

 \frac{dE[t^x]}{dt}=E[xt^{x-1}]

これは、 t=1の時、 E[x]になりますよね。


二項分布の確率母関数は先ほど計算したように次のようでした。
 (1-p+tp)^n

そこで、
 \frac{d(1-p+tp)^n}{dt}=np(1-p+tp)^{n-1}より

 t=1を代入すると

 E[x]=np


積率母関数を用いた導出

積率母関数は、微分して、tに0を代入することで、期待値が出ます。つまり

 \frac{dE[exp(tx)]}{dt}=E[xexp(tx)]

これは、 t=0の時、 E[x]になりますよね。


二項分布の積率母関数は先ほど計算したように次のようでした。
 (1-p+exp(t)p)^n

そこで、
 \frac{d(1-p+exp(t)p)^n}{dt}=n exp(t)p(1-p+exp(t)p)^{n-1}より

 t=0を代入すると

 E[x]=np


スポンサーリンク


分散の導出

定義に従った計算

 Var[x]=E[(x-E[x])^2]=E[x^2-2xE[x]+E[x]^2]=E[x^2]-E[x]^2

 E[x]=npであることは、先ほどの計算で分かっているので、 E[x^2]を求めます。


 E[x^2] = \sum_{x=0}^{n} x^2 \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 = \sum_{x=0}^{n} \{x(x-1)+x\} \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 = \sum_{x=0}^{n} x(x-1) \begin{eqnarray*}
  && {}_n C _x \\ \end{eqnarray*}
 p^x (1-p)^{n-x} +  \sum_{x=0}^{n} x \begin{eqnarray*}
  && {}_n C _x \\
\end{eqnarray*} p^x (1-p)^{n-x}

 = \sum_{x=0}^{n} x(x-1) \frac{n!}{(n-x)! x!}
 p^x (1-p)^{n-x} +E[x]

 = \sum_{x=2}^{n} x(x-1) \frac{n!}{(n-x)! x!}
 p^x (1-p)^{n-x} +E[x]

 = n(n-1)p^2\sum_{x=2}^{n} \frac{(n-2)!}{(n-x)! (x-2)!}
 p^{x-2} (1-p)^{n-x} +E[x]

 = n(n-1)p^2 (p+1-p)^{n-2} + E[x]…二項定理(期待値の時のと同じ仕組み)

 = n(n-1)p^2+np


以上より、 Var[x]=np(1-p)


確率母関数を用いた導出

確率母関数は二回微分することで次のような形になります。

 \frac{d^2E[t^x]}{dt^2}=E[x(x-1)t^{x-2}]

例のごとく t=1を代入すると

 E[x(x-1)]=E[x^2]-E[x]

この性質を利用します。

二項分布の確率母関数は先ほど導出した通り次のようでした
 (1-p+tp)^n

 \frac{d^2 (1-p+tp)^n}{dt^2} = n(n-1)p^2 (1+tp-p)^{n-2}

 t=1を代入すると

 E[x^2]-E[x]=n(n-1)p^2

よって E[x^2]=n(n-1)p^2+np

以上より、 Var[x]=np(1-p)


積率母関数を用いた導出

積率母関数は二回微分することで次のようになります。

 \frac{d^2E[exp(tx)]}{dt^2}=E[x^2 exp(tx)]

 t=0を代入すると、 E[x^2]になりますね。この性質を利用します。


二項分布の積率母関数 (1-p+exp(t)p)^nを二回微分すると次のよう。


 \frac{d^2 (1-p+exp(t)p)^n}{dt^2}=npe^t (1-p+e^t p)^{n-1} + n(n-1) (e^t p)^2 (1-p+e^t p)^{n-2}

 t=0を代入すると

 E[x^2]=n(n-1)p^2+np

以上より、 Var[x]=np(1-p)


歪度の導出

歪度あたりから、定義通り計算するのも面倒になってくるので、積率母関数を利用することにします。

 E[\frac{(x-E[x])^3}{\sigma^3}] = \frac{E[x^3]-3E[x^2]E[x]+2E[x]^3}{\sigma^3}

 E[x^3]さえ求めればよいことがわかりますね。
積率母関数を3回微分してやって、

 \frac{d^3 (1-p+exp(t)p)^n}{dt^3}
 =npe^t (1-p+e^t p)^{n-1} +3n(n-1)(e^t p)^2 (1-p+e^t p)^{n-2} +n(n-1)(n-2) (e^t p)^3 (1-p+e^t p)^{n-3}

 t=0と置くと E[x^3]が次のように得られます。

 E[x^3]=np+3n(n-1)p^2+n(n-1)(n-2)p^3

以上より、 E[\frac{(x-E[x])^3}{\sigma^3}] =\frac{np(2p-1)(p-1)}{np(1-p) \sqrt{np(1-p)}}


スポンサーリンク


ベルヌーイ分布を用いた二項分布の導出

独立同一にベルヌーイ分布に従う確率変数 X_1,X_2,\cdots ,X_nの和

 S_n=\sum_{i=1}^{n} X_i

が二項分布に従うことを示します。


まず、 u_1 = X_1+X_2,v_1=X_2と置くことにします。
この時

 X_1=u_1-v_1,X_2=v_1より、

ヤコビアン |J|

 |J|=1

よって、 u_1,v_1の同時分布 f_{u_1,v_1}は次のよう

 f_{u_1,v_1}=|J| p^{X_1} (1-p)^{1-X_1} p^{X_2} (1-p)^{1-X_2}=p^{u_1}(1-p)^{2-u_1}

周辺分布 f_{u_1}は次のように得られる。

 f_{u_1}=\sum_{v_1=0}^{1} f_{u_1,v_1} = \begin{eqnarray*}
  && {}_2 C _{u_1} \\
\end{eqnarray*} p^{u_1}(1-p)^{2-u_1}

よって、 u_1は二項分布に従う。


更に、 u_2 = u_1 +X_3 , v_2=X_3とおき、

同様の計算を行う。 u_2の組を数え上げれば、

 f_{u_2}=\sum_{v_2=0}^{1} f_{u_2,v_2} = \begin{eqnarray*}
  && {}_3 C _{u_2} \\
\end{eqnarray*} p^{u_2}(1-p)^{3-u_2}

これを繰り返すことで、 S_nの分布 f_sは次のように得られる。

 f_s = \begin{eqnarray*}
  && {}_n C _{S_n} \\
\end{eqnarray*} p^{S_n}(1-p)^{n-S_n}

これは、二項分布。


二項分布の再生性の証明

 Z_1が二項分布 Bi(n_1,p) Z_2が二項分布 Bi(n_2,p)に従うとする。

この時、次のようにおく。

 u=Z_1+Z_2,v=Z_2

この時 u,vの同時分布 f_{u,v}は次のよう

 f_{u,v}= \begin{eqnarray*}
  && {}_{n_1} C _{Z_1} \\
\end{eqnarray*}  \begin{eqnarray*}
  && {}_{n_2} C _{Z_2} \\
\end{eqnarray*}  p^{Z_1+Z_2} (1-p)^{n_1+n_2-(Z_1+Z_2)}

この時、 uの密度関数 f_uは次のよう

 f_u=\sum_{v=0}^{1} f_{u,v} = \begin{eqnarray*}
  && {}_{\{n_1+n_2\}} C _{\{Z_1+Z_2\}} \\
\end{eqnarray*}  p^{Z_1+Z_2} (1-p)^{n_1+n_2-(Z_1+Z_2)}


二項分布の正規近似

 n→\inftyで二項分布は正規分布に近似します。
これを示します。中心極限定理まで証明している時間は無いはずなので、中心極限定理の証明まではしません。

 Yが二項分布に従うとする。
二項分布に従う確率変数は、独立同一なベルヌーイ分布の和と見なせることを先ほど示したので、

 X_1,\cdots ,X_nが独立同一にベルヌーイ分布に従うものとして、

 Y=\sum_{i=1}^{n} X_iと書ける。

ここで、 Yの分布関数 P(Y≦y)について

 P(Y≦y)=P(\sum_{i=1}^{n} X_i ≦y)=P(\frac{\sum_{i=1}^{n} (X_i-p)}{\sqrt{n} \sqrt{p(1-p)}} ≦\frac{y-np}{\sqrt{np(1-p)}})=P(\frac{1}{\sqrt{n}} \sum_{i=1}^{n}  \frac{ (X_i-p)}{ \sqrt{p(1-p)}}  ≦\frac{y-np}{\sqrt{np(1-p)}})

中心極限定理より、
 P(\frac{1}{\sqrt{n}} \sum_{i=1}^{n}  \frac{ (X_i-p)}{ \sqrt{p(1-p)}}  ≦\frac{y-np}{\sqrt{np(1-p)}})≃\Phi(\frac{y-np}{\sqrt{np(1-p)}})



リンク

統計学を勉強するためのオススメ本

www.bananarian.net

2017年数理1級の解説記事

www.bananarian.net

その他の問題記事

統計検定1級対策問題集~二項分布編~

www.bananarian.net

統計検定1級対策問題集~ポアソン分布編~

www.bananarian.net

統計検定1級対策問題集~負の二項分布編~

www.bananarian.net

統計検定1級対策問題集~正規分布編~

www.bananarian.net

統計検定1級対策問題集~指数分布編~

www.bananarian.net

統計検定1級対策問題集~ガンマ分布編~

www.bananarian.net

【初心者向け】2017年統計検定1級数理問5の解説

前回問4までやりました。
bananarian.hatenablog.com


今回で2017年の統計数理は最後ですね。
2017年 統計検定1級 統計数理 問5 対策用解説 を始めていきます。

スポンサーリンク


問5の概要

f:id:bananarian:20180921155941p:plain

標準正規分布に従う確率変数の二乗和はカイ二乗分布に従うという話について、確認したことはありますか?
という話ですね。ちなみに[2]はそこから更にF分布の導出を要求しており、[3]は多少マイナーですが、コーシー分布の密度関数の導出ですね。

こうしてみてみると、統計検定、各分布の導出が多い印象がありますね~。



問5[1]

f:id:bananarian:20180921160618p:plain

やはり、統計検定で変数変換は必須ですね~。この手の問題については問3でも問4でもやりましたね。
 V=Z^2

という形で変数変換をしていますので、今回使う変数 Z
 Z=V^{\frac{1}{2}}となります。

よって
 f(v)=\varphi(v^{\frac{1}{2}})\frac{dZ}{dv}.....!!

とすると間違いになります。何故なら、 v^{\frac{1}{2}}≧0であるわけですが、 \varphi(・) ・の範囲は -\inftyから \inftyです。よって、条件付分布で考えなければなりません。

ここで \varphi(x|x≧0)=\frac{Prob(x,(x≧0))}{Prob(x≧0)}であり

※これは直感的にわかりますかね。要は x≧0の範囲で全体の和が1にならなければならないので、標準化しています。

 Prob(x≧0)=(標準正規分布の丁度半分)=\frac{1}{2}

よって \varphi(x|x≧0)=2Prob(x,(x≧0))


以上より、
 f(v)=\varphi(v^{\frac{1}{2}}|x≧0)\frac{dZ}{dv}=2\varphi(v^{\frac{1}{2}})\frac{dZ}{dv}=\frac{1}{\sqrt{2\pi}}\frac{1}{\sqrt{v}}e^{-\frac{v}{2}}



問5[2]

次行きます。
f:id:bananarian:20180921181107p:plain

F分布ですね。もう方針は変数変換一本です。
 s=\frac{x}{y}
 u=x
とおくことにしましょう。

この時、
 x=u
 y=\frac{u}{s}

であるが、

 \frac{\partial x}{\partial u}=1
 \frac{\partial x}{\partial s}=0
 \frac{\partial y}{\partial u}=\frac{1}{s}
 \frac{\partial y}{\partial s}=-\frac{u}{s^2}

なので、

 g(s)=\int_{0}^{\infty}|-\frac{u}{s^2}|f(u)f(\frac{u}{s})du


はい。あとは頑張って積分するだけです。計算間違いに気を付けてください。
私も今回の記事を書くにあたって、積分ミスって結構詰まりました(笑)
一応計算プロセスを書いておきます。

 g(s)=\frac{1}{2\pi}\int_{0}^{\infty}\frac{\frac{u}{s^2}}{\frac{u}{\sqrt{s}}}exp(-\frac{1}{2}u(1+\frac{1}{s}))du
 =\frac{1}{\pi\sqrt{s}(1+s)}\int_{0}^{\infty}\frac{1+s}{2s}exp(-\frac{u}{2}(1+\frac{1}{s}))du
 =\frac{1}{\pi\sqrt{s}(1+s)}\int_{0}^{\infty}\frac{1}{2}(1+\frac{1}{s})exp(-\frac{u}{2}(1+\frac{1}{s}))du
 =\frac{1}{\pi\sqrt{s}(1+s)} [-exp(-\frac{u}{2}(1+\frac{1}{s}))]_{0}^{\infty}
 =\frac{1}{\pi\sqrt{s}(1+s)}(0-(-1))=\frac{1}{\pi\sqrt{s}(1+s)}


はい。出てきました。どうせたどり着くべき式がわかっているので、強引に外に出してしまえば、後は積分さえ間違わなければ1になって消えるよねって感じで出せます。

試験時間は短いので、当然こういうプロセスを経るべきです。



問5[3]

最後ですね。
f:id:bananarian:20180921190242p:plain

何やらヒントがあるので使っていきましょう。

 \frac{x}{y}=tan^2\theta=\frac{sin^2\theta}{cos^2\theta}

つまり
 x=sin^2\theta
 y=cos^2\theta
と置くことにします。

ここで
 x-y=sin^2\theta-cos^2\theta=-cos 2\theta
 xy=(cos^2\theta)(sin^2\theta)=(cos\theta sin\theta)^2=(\frac{1}{2}sin2\theta)^2

よって
 t= \frac{cos2\theta}{sin2\theta}=-\frac{1}{tan2\theta}

ここで[2]より、sは g(s)に従うので変数変換で....と行こうとすると出来ません!!やってみたらわかりますが、うまく変形できません。

そこで次のようなものを考えることにします。

 g(s)ds

これは、要はsが微小に変化した部分と密度部分の積で、要は面積を出す形になり、微小な確率を表します。

密度関数は1点を取ってくると0ですが、微小に変化させた部分の面積を取ってくることで確率を求めることができるわけでしたね。

これを変形していきます。

 g(s)ds=g(s)\frac{ds}{d\theta}d\theta=\frac{2}{\pi}\frac{d\theta}{dt}dt=h(t)dt
これで、tが微小に変化した場合の式に変換できたので、 h(t)さえわかればそれがtの確率密度になります。

というわけで、ここで知りたいのは \frac{d\theta}{dt}です。


 t=-\frac{1}{tan2\theta}であったので、
 \frac{dt}{d2\theta}=\frac{1}{(cos^22\theta)(tan^22\theta)}=\frac{1}{sin^2 2\theta}ですね。

更にこれを利用すると
 \frac{dt}{d\theta}=\frac{dt}{2\theta}\frac{2\theta}{d\theta}=\frac{2}{sin^22\theta}

最後に逆数を取ってやれば
 \frac{d\theta}{dt}=\frac{sin^22\theta}{2}

つまり、
 g(s)ds=\frac{2}{\pi}\frac{d\theta}{dt}dt=\frac{2}{\pi}\frac{sin^22\theta}{2}dt=h(t)dt


よって h(t)=\frac{2}{\pi} \frac{sin^22\theta}{2}です。


あれ?求めたい答えにまだたどり着いていませんね。もし、この計算が間違っていなければ
頑張って計算してやれば \frac{sin^22\theta}{2} \frac{1}{2(1+t^2)}が同じになるはずですね。

 (1+t^2)=1+\frac{1}{tan^22\theta}=\frac{1+tan^22\theta}{tan^2 2\theta}=\frac{cos^22\theta}{tan^22\theta}=\frac{1}{sin^22\theta}

はい、求まりました。


以上より
 h(t)=\frac{1}{ \pi(1+t^2)}


これで2017年数理終わりですね~お疲れさまでした。
問5については、簡単そうに見えて意外と[3]辺りは初見だと詰まりそうですよね。
あと、一般化して証明しているばかりだと、このような具体的な計算で詰まる人も出てきそうですね。

具体的にこういう分布の時はどうやって導出するんだろう?といったことを疑問に思って訓練する必要がありそうです。

【初心者向け】2017年統計検定1級数理問4の解説

前回までで問3までやりましたね。

bananarian.hatenablog.com


で、同じ要領で問4やっていきます。

そういうわけで今回も2017年 統計検定1級 統計数理 問4 対策用解説 を始めていきます。

スポンサーリンク



問4の概要

今回のセットアップはこんな感じです。
f:id:bananarian:20180918101918p:plain

二種類の標準正規分布に従う確率変数を線形の形でくっつけてます。
変数変換からの分布の導出はやはり頻出ですね。

正規分布には面白い性質があって、多変量同時分布の条件付き分布は正規分布になるし、再生性もあるので、和をとってもやっぱり正規分布になるんです。今回の問題でそこまで証明するか、この辺の話は既知として問に答えるかは時間との相談ということになりそうです。

今回は面倒なのでその辺は既知のこととして話を進めていきます。
まあ別に既知としなくても、いうてそこまで手間ではないので、時間的な余裕があれば、再生性に関してはヤコビアン使って分布を求めてやって、条件付分布に関してはベイズルールに従って条件付き分布をうまく正規分布の形にもっていってください。


問4[1]

f:id:bananarian:20180918102447p:plain

これは正規分布の再生性に関する問ですね。サクっと解いていきましょう。

正規分布の再生性から、Zも正規分布に従う。更に期待値と分散は次のよう

 E[Z]=a+kE[X]+E[Y]=a
 V[Z]=k^2V[X]+V[Y]+Cov[X,Y]=k^2+1

よって期待値 a、分散 k^2+1の正規分布に従う。


※もし時間があれば本当に正規分布に従うか分布を出してやった方が、安全かもしれません。



問4[2]

f:id:bananarian:20180918105218p:plain
相関係数は、共分散を標準化してやればよいので、とりあえず共分散を出しましょう。


 Cov(X,Z)=Cov(X,a+kX+Y)=kCov(X,X)=kV(X)=k

よって相関係数 \rho(X,Z)
 \rho(X,Z)=\frac{Cov(X,Z)}{\sqrt{V(X)V(Z)}}=\frac{k}{\sqrt{k^2+1}}


問4[3]

f:id:bananarian:20180918105231p:plain

正規分布の条件付き分布も正規分布っていうのはよく知られた事実なので、まあ時間が余るようなら証明を加えれば良いような気がします。

とりあえず条件付期待値と条件付分散を出してみますか。

 E[Z|X=x]=a+kx
 V[Z|X=x]=1

よって、期待値 a+kx、分散 1の正規分布である。

※正直再生性は既知のものとしているのに、こっちは既知としないのはよくわからないわけですが、一応指定教科書には再生性に関する記述はあれど、条件付分布が正規分布になるとは書いていないので、心配ならば分布を求めてやればよいと思います。


問4[4]

f:id:bananarian:20180918105805p:plain

最後ですね。
 f(x|Z=z)f(z)=f(z|X=x)f(x)なので

 f(z|X=x)f(x)=N(a+kx,1)×N(0,1)
 f(x|Z=z)=\frac{N(a+kx,1)×N(0,1)}{N(a,k^2+1)}

ですね。なんか非常に投げやりなノーテーションですが、正規分布の式を一々書くのが記事上だととても面倒くさいので、まあ許してください(笑)

あとはゴリゴリ正規分布の形に直すだけです。

計算してやると

 f(x|Z=z)=\frac{1}{\sqrt{2\pi(\frac{1}{k^2+1})^2}}exp(-\frac{(x-\frac{k(z-a)}{(k^2+1)})^2}{2(\frac{1}{k^2+1})})

ということで、正直正規分布をイロイロ組み合わせて出来るものは正規分布であるということは、分かっているので、
正規分布の形になるように意識して変形していけば、問題なく計算できると思います。


以上から期待値 \frac{k(z-a)}{(k^2+1)}、分散 k^2+1の正規分布に従うことが分かります。




以上です。次は問5ですね。

問4については、多変量正規分布の計算に慣れ親しんでいる人ならばすぐ解けるといった問題ですね。再生性に関しても証明を施すかどうかは迷いどころです。