バナナでもわかる話

開設当初は計量経済学・統計学が専門の大学院生でした。今はデータを扱うお仕事をしています。統計学・経済学・投資理論・マーケティング等々に関する勉強・解説ブログ。ときどき趣味も。極力数式は使わずイメージで説明出来るよう心掛けていますが、時々暴走します。

【初心者向け】2017年統計検定1級数理問3の解説

前回は問2を解説しました。
bananarian.hatenablog.com

前回の記事の感想としては、問2は[1]と[3]さえ乗り切れば大したことない問題かなーとは思いましたが、完答はかなり勉強してる人じゃないとしんどそうですね。

2017年 統計検定1級 統計数理 問3 対策用解説 を始めていきます。

スポンサーリンク



あと、この統計検定カテゴリーですが、少しずつ遡っていって、過去問の解説を全部のっけていけるといいなーと思ってます。

個人的に統計検定について調べていて感じたことなんですが、
特に1級の解答解説については、正確なものがネットに殆ど転がっていないなーと思いました。
(何やら怪しげな計算をしている解答記事は多々ありましたが)

というわけで、解答をボチボチあげてくことも、世間に需要があるんじゃないかなーと思っている次第です。
あ、おかしな証明は書いていないつもりですが、もしツッコミがあれば当然歓迎です。



問3の概要

問3のセットアップを見ていきましょう。
f:id:bananarian:20180916190802p:plain

標準的なポアソン分布ですね。ポアソン分布は結構色々な性質があって、問題にしやすい分布かなーとは思います。
今回の[1]から[4]も標準な問題が多いですね。


問3[1]

f:id:bananarian:20180916191255p:plain

ポアソン分布は二項分布から導出されます。その導出がしっかり出来ますかという問題ですね。

まず、ポアソン分布の密度関数 f(x)は問題にもある通り次の通り

 f(x)=\begin{eqnarray*}
{}_n \mathrm{C} _x
\end{eqnarray*}p^x(1-p)^{n-x}=\frac{n!}{x!(n-x)!}p^x(1-p)^{n-x}

ちょっと式をいじってみましょう。


 f(x)=\frac{n!}{x!(n-x)!}p^x(1-p)^{n-x}=\frac{\{np(n-1)p...(n-x+1)p\}(n-x)!}{x!(n-x)!}(1-p)^{n-x}
 =\frac{\{np(n-1)p...(n-x+1)p\}}{x!}\frac{(1-p)^{n}}{(1-p)^x}


では、nを極限に飛ばしてみましょう。
 \displaystyle \lim_{n \to \infty} f(x)=\displaystyle \lim_{n \to \infty} \frac{\{np(n-1)p...(n-x+1)p\}}{x!}\frac{(1-p)^{n}}{(1-p)^x}
 =\displaystyle \lim_{n \to \infty} \frac{(np)^x}{x!}\frac{(1-p)^{n}}{(1-p)^x}


ここで、仮定より、 \displaystyle \lim_{n \to \infty} (np)^x=\lambda^x

更に、

 \displaystyle \lim_{p \to 0}  (1-p)^x=1
であることはすぐわかりますし、 exp(x)の定義から、次のことも分かります。

 \displaystyle \lim_{n \to \infty} (1-p)^{n}= \displaystyle \lim_{n \to \infty} (1-\frac{\lambda}{n})^{n} =e^{-\lambda}


以上より、


 \displaystyle \lim_{n \to \infty} f(x)=\frac{\lambda^x e^{-\lambda}}{x!}



問3[2]

f:id:bananarian:20180916194940p:plain

まず、モーメント母関数の定義は次のようになります。

 E[exp(tX)]


実際に計算していきます。

 E[exp(tx)]=\sum_{x=0}^{\infty}e^{tx}p(x)=\sum_{x=0}^{\infty}e^{tx}\frac{\lambda^x e^{-\lambda}}{x!}=e^{-\lambda}\sum_{x=0}^{\infty}\frac{(e^{t}\lambda)^x}{x!}


ここで一旦 e^sについて考えてみます。これについてマクローリン展開をしてみると


 e^s=\sum_{i=0}^{\infty} \frac{s^i}{i!}


よって
 E[exp(tx)]=e^{-\lambda}e^{e^{t}\lambda}=e^{\lambda(e^{t}-1)}

モーメント母関数はtで一回微分して、t=0を入れれば期待値が、二回微分してt=0を入れれば二乗の期待値が出てきます。

 E[X]=\frac{\partial M_x(t)}{\partial t}|_{t=0}=\lambda
 E[X^2]=\frac{\partial^2 M_x(t)}{\partial t^2}|_{t=0}=\lambda(\lambda+1)

よって
 V[X]=E[X^2]-E[X]^2=\lambda


問3[3]

f:id:bananarian:20180916201239p:plain


分布の畳み込みに関する問題ですね。ポワソン分布には再生性があるので、和をとってもポワソン分布になります。
それを示せという問題です。


 u=X_1, v=Y=X_1+X_2

とおくことにします。


ここで X_2=v-uであるので、

 \frac{\partial X_1}{\partial u}=1
 \frac{\partial X_1}{\partial v}=0
 \frac{\partial X_2}{\partial u}=-1
 \frac{\partial X_2}{\partial v}=1

以上より u vの同時分布から vに関する周辺分布を求めればよく、

 Prob(Y=v)=\sum_{u=0}^{v}\frac{1}{1}Prob(X_1=u)Prob(X_2=v-u)
 =\sum_{u=0}^{v}\frac{exp(-(\lambda_1+\lambda_2))\lambda_1^u\lambda_2^{v-u}}{u!(v-u)!}
 =exp(-(\lambda_1+\lambda_2))\sum_{u=0}^{v} \lambda_1^u\lambda_2^{v-u} \begin{eqnarray*}
{}_v \mathrm{C} _u
\end{eqnarray*}\frac{1}{v!}
 =\frac{exp(-(\lambda_1+\lambda_2))}{v!} \sum_{u=0}^{v} \lambda_1^u\lambda_2^{v-u} \begin{eqnarray*}
{}_v \mathrm{C} _u
\end{eqnarray*}

二項定理より、

 Prob(Y=v)=\frac{exp(-(\lambda_1+\lambda_2))}{v!} (\lambda_1+\lambda_2)^v

このことより、 Yもポアソン分布に従うことが分かりますね。



問3[4]

f:id:bananarian:20180916214340p:plain

最後ですね。ポワソン分布は \lambda→\inftyにおいて漸近的に正規近似します。
色々と証明方法はありますが

今回はせっかくモーメント母関数を出したので、それを利用してモーメント母関数を対数変換したキュムラント母関数が標準正規分布のキュムラント母関数に収束することを示すことで証明します。

ただ、今回は長くなるので母関数と分布の1対1対応することについては既知のこととして証明することとします。


[2]より
 Z=\frac{X-\lambda}{\sqrt{\lambda}}

このZのモーメント母関数 M_z(t)

 M_z(t)=E[e^{tZ}]=E[e^{\frac{tX-t\lambda}{\sqrt{\lambda}}}]=E[e^{\frac{tX}{\sqrt{\lambda}}}e^{\frac{-t\lambda}{\sqrt{\lambda}}}]=e^{-t\sqrt{\lambda}}E[e^{\frac{tX}{\sqrt{\lambda}}}]=e^{-t\sqrt{\lambda}} e^{\lambda(e^{\frac{t}{\sqrt{\lambda}}}-1)}


ここでキュムラント母関数は
 \log{M_z(t)}=-t\sqrt{\lambda}+(\lambda(e^{\frac{t}{\sqrt{\lambda}}}-1)

これについてテイラー展開を施すために次の計算を行っておく。

 \log{M_z(0)=0}
 \frac{\partial \log{M_z(t)}}{\partial t}|_{t=0}=0
 \frac{\partial^2 \log{M_z(t)}}{\partial t^2}|_{t=0}=1
 \frac{\partial^3 \log{M_z(t)}}{\partial t^3}|_{t=0}=\frac{1}{\sqrt{\lambda}}

これを元にテイラー展開を行えば

 \log{M_z(t)}=\frac{t^2}{2!}+\frac{1}{\sqrt{\lambda}}\frac{t^3}{3!}+o(\frac{1}{\sqrt{\lambda}})

よって \lambda→\inftyのもとで、キュムラント母関数は \frac{t^2}{2!}に収束することが分かる。

これは標準正規分布のキュムラント母関数である。


よって母関数と分布の1対1対応の関係から \lambda→\inftyのもとで Zの分布は標準正規分布に収束する。



以上でした。内容自体は標準的ですが、制限時間内で解くとなると少し時間がかかりそうですね。



次は問4ですね。

      • キーワード---

統計検定1級 解説 数理 統計数理 2017年 解答 

【初心者向け】2017年統計検定1級数理問2の解説

前回は問1の解説を行いましたが、次は問2をやっていきます。
bananarian.hatenablog.com

スポンサーリンク



2017年 統計検定1級 統計数理 問2 対策用解説 を始めていきます。

問2の概要

まず、問2のセットアップから確認します。
f:id:bananarian:20180916102856p:plain

要は一様分布ですね。

なんだ、一様分布なら簡単そうじゃないか!!と思いきや、意外と詰まった受験生もいらっしゃったのではないかなあと思います。

意外と盲点になるところですが、一様分布の同時分布における最尤推定量って思考停止でやろうとすると、おかしなことになるんですね。



問2[1]

f:id:bananarian:20180916103243p:plain

これ、詰まった人いるんじゃないですかねえ。どうでしょうか。
一様分布のパラメータにおける最尤推定量に関する問題ですね。



色々考え方はありますが、今回はKKT条件を使って解いてみようかと思います。
KKT条件については前に書いた下の記事の真ん中あたりにあるので参考にしてみてください。
bananarian.hatenablog.com



まず、計画問題を考えることにします。今回は、独立に一様分布に従っていることから同時分布は次のようになります。

 \frac{1}{\theta^n}

しかし、ここで一つ問題があって、得られた全ての X_i 0より大きくて、\theta以下でなければならないという制約が発生します。そこで次のように考えます。

 X_1≦\theta
 X_2≦\theta
...
 X_n≦\theta

ということは結局、 X_{max}≦\thetaだということ!!

つまり、制約として X_{max}≦\thetaが存在します。


以上より計画問題は次のようになります。


目的  \frac{1}{\theta^n} を最大化する
制約  X_{max}≦\theta



別にこの作業はしてもしなくてもどっちでもいいんですが、目的の見方を変えると、

 \theta^n を最小化する

と見ることもできますね。


ここまで来たらもう難しくありません。ラグランジュ乗数 \lambda≧0を用意してやり、次のようなラグランジュ関数 Lを考えます。


 L(\theta,\lambda)=\theta^n-\lambda (\theta-X_{max})

このラグランジュ関数は、KKT条件より、次の制約を満たす必要があります。

 \frac{\partial L(\theta,\lambda)}{\partial \theta}=0…①
  \frac{\partial L(\theta,\lambda)}{\partial \lambda}≦0…②
  \lambda (\theta-X_{max})=0⇔(\lambda=0) or (\theta=X_{max})…③


まず、②についてですが、
②⇔ X_{max}≦\theta
ですね。


更に①は
①⇔ \lambda=n\theta^{n-1}

であり、 0<\thetaであることに注意すると、 \lambda>0ですね。



 \lambda>0であることがわかったので、これを考慮した上で③をみてやると、

 (\lambda=0)は成り立ちませんよね。よって (\theta=X_{max})です。



つまり \thetaの最尤推定量 \hat{\theta}

 \hat{\theta}=X_{max}

となります。



問2[2]

[2]いきます。
f:id:bananarian:20180916142111p:plain



まず、 Xの期待値を出せないとお話にならないので出してみましょう。
 E[X]=\int_0^{\theta}\frac{X}{\theta}dX=\frac{1}{\theta}[\frac{X^2}{2}]_0^{\theta}=\frac{\theta}{2}


 E[\theta']=E[2\bar{X}]=\frac{2}{n}\sum_{i=1}^{n}E[X]=\theta

不偏推定量であることが確認できました。



問2[3]

f:id:bananarian:20180916142213p:plain


順序統計量に関する密度関数の問題です。

 X_{max}は要はこういう状況ですよね。
 (X_1≦X_{max})\&(X_2≦X_{max})\&....\&....\&(X_n≦X_{max})


つまり Xの分布関数を F(x)とおくこととすると、
 X_{max}の分布関数 G(x)は次のようになりますね。


 G(x)=Prob(X_1≦X_{max})Prob(X_2≦X_{max})....Prob(X_n≦X_{max})={F(x)}^n


これを微分してやれば密度関数が出てきますね。ただその前に F(x)を求めておきましょう。


 F(x)=\int_0^x \frac{1}{\theta} dX=\frac{x}{\theta}


 G(x)=(\frac{x}{\theta})^n


 (密度関数)=f_{max}(x)=\frac{\partial G(x)}{\partial x}=\frac{n}{\theta}(\frac{x}{\theta})^{n-1}


次に X_{max}の期待値を求めてみます。

 E[X_{max}]=\int_0^{\theta}x f_{max}(x)dx=\int_0^{\theta} \frac{nx}{\theta}(\frac{x}{\theta})^{n-1} dx=\frac{n}{\theta^n}\int_0^{\theta}x^ndx=\frac{n \theta}{n+1}


以上より、 E[\theta'']=\theta



問2[4]

f:id:bananarian:20180916142612p:plain


最後ですね。[2]と[3]で2種類の \thetaに関する不偏推定量を導きました。
しかし、その中でもより分散の小さい推定量、つまり有効推定量であることが重要でした。


分散ですが、普通に分散の定義に従っても良いのですが、ちょっと面倒なので次の公式を利用します。導出は容易なので省略します。

 V[X]=E[X^2]-(E[X])^2


つまり、 E[X^2] E[X_{max}^2]を導出すればよいということになります。

[tex: E[X^2]=\int_0^{\theta}\frac{X^2}{\theta}dX=\frac{\theta^2}{3}

 E[X_{max}^2]=\int_0^{\theta} \frac{nx^{n+1}}{\theta^n}dx=\frac{n}{\theta^n}\int_0^{\theta}x^{n+1}dx=\frac{n\theta^2}{n+2}


よって、分散は

 V[X]=\frac{\theta^2}{3}-\frac{\theta^2}{4}=\frac{\theta^2}{12}
 V[X_{max}]=\frac{n\theta^2}{n+2}-\frac{n^2 \theta^2}{(n+1)^2}=\frac{n\theta^2}{(n+2)(n+1)^2}


更に各推定量の分散は次のようになりますね。

 V[\theta']=\frac{4}{n} \frac{\theta^2}{12}=\frac{\theta^2}{3n}
 V[\theta'']=\frac{(n+1)^2}{n^2} \frac{n\theta^2}{(n+2)(n+1)^2} =\frac{\theta^2}{n(n+2)}



 nをどんどん大きくしていった時に、 \theta''の分散の方が早く0になるのはわかりますか?
更にもう少し考えてみると
 V[\theta']-V[\theta'']=\frac{\theta^2}{3n}-\frac{\theta^2}{n(n+2)}=\frac{n(n+2)\theta^2-3\theta^2}{3n(n+2)}=\frac{(n+3)(n-1)\theta^2}{3n(n+2)}

これは n≧1より、常に正です。

よって

 V[\theta']-V[\theta'']≧0
 V[\theta']≧V[\theta'']


 \theta'の方がより効率的な推定量であることが分かりました!


よって、どちらの推定量 \theta', \theta''であっても不偏性、効率性はありますが、 \theta''が有効性の点で優れているため、良い推定量であるといえます。


次回は問3についてやります。



      • キーワード---

統計検定1級 解説 数理 統計数理 2017年 解答 

純文系の私がガチガチの統計学を習熟した方法と経緯

結構ブログ記事ではゴリゴリ統計学や機械学習の話を記事にしている私ですが、実は生粋の文系でして、数学も大学入学時点で数学ⅠAⅡBまでしかやっていませんでした。

 

今回はそんな私が一体どんな本を読んで勉強してきたら、こんな記事を書くまでになったのかを振り返るとともに、その際使った統計学・数学本を紹介していきたいと思います。



スポンサーリンク


 

【大学入学時】

能力的には数学ⅠAⅡBはある程度分かっているというレベルでした。数ⅢCは知りません。

 

まず、そんな状態でやったのはこれです。個人的にはド定番だと思ってます。

・コアテキスト

文系高校生レベルの数学的な知識のみで読みきることが出来て、かつ具体的にどう使うのかといった方面に着目した本です。大屋先生という日本でも有数の計量経済学者が書いた本なので、中身も信用できます。また、この本の演習本も出版されていて、それが下の本です。

 

・基本演習 統計学

大学レベルの数学・統計学で演習本は中々少ないので貴重ですね。


 





【統計検定を受けてみた】

コアテキストを一通り読みきるとどれくらいのレベルになるかというと、統計検定2級を受かる程度の力がつきます。実際私の大学では、コアテキストを終えた後に統計検定2級に関する広告が配られます。そこで私も受けてみました。その際に使用したテキストがこちらです。

 

・統計学基礎

ここまでやれば文系としては十分なくらい統計学の知識が身につきます。ついでに演習もはかどり、統計検定にも合格できるというオマケ付き。

 

 



【理系統計学に片足を突っ込む】

そろそろ文系レベルの統計学は卒業です。卒業にあたってどうしても数学的な知識をもう少しつける必要が生じました。しかし、数ⅢCをやっていない私はいきなり理系大学生用の数学本に手を出すことは出来ませんでした。そこで使用した本がこちらです。

 

・経済数学教室 確率論

この本は、読者の想定が文系であるにもかかわらず、全て読み切れば相当高度なレベルまで確率論を学ぶことが出来ます。名著です。普通に買うと高いのですが、中古だとそこそこの額でおさまります。また、恐らく大学の図書館であれば絶対に置いてありますので借りるのもよいかと。



 スポンサーリンク




もしくはこれですね


・確率論入門Ⅰ

確率論について基礎から丁寧に学ぶことが出来、こちらも大学レベルの確率論のそこそこのレベルまで到達できます。





その後に読んだ本がこちらです。

・統計学入門

理系用統計学の入門書です。ここまで読み進めてきた私としては平易でした。理系の大学生はこの本が統計学の勉強のスタートかなとは思います。ちなみにアクチュアリ試験公認会計士試験の統計学もこのレベルです(公認会計士試験は、この本がオススメとは言われているけども、正直もう少し簡単なレベルで良いとは思う)。

 

 


【数理統計学の名著をあさる】

そろそろ本格的に統計学を学んでいく素地が出来上がっているはずです。そこで、少し数理的な側面の多い本を読んでいきました。

 

・明快演習数理統計学

この本は数理統計学とは書いてありますが、そこまで難しい内容ではありません。今まで固めた基礎の復習といった感じです。

 


・数理統計学

これは中々重たいですが、読み切れば力がつく名著です。有名なので、大学生であれば大学の図書館に行けば山ほどおいてあると思いますし、理系向けの中級レベルの統計学の講義では恐らくこの本が使われています。この時点で私は大学3年生でした。




・統計学

ちなみに、この時点で統計検定1級の勉強に突入出来るくらいの力はついているはずです。次に紹介する本も読んでしまえば、かなり統計検定1級は合格圏内だと思います。 

 





【そろそろガチめの統計学の勉強をはじめる】

大学4年生になった私はそろそろ、ガチめに勉強してみるかあと奮起し、洋書にも手を出すことにしました。洋書と聞くとハードルが高そうに感じますが、読み始めてみると、所詮専門書なので、難しい英語も無く、結構難なく読めちゃったりします

 

・Statistical Inference

古い本ですが、これが一番おすすめです。体型的に伝統的な数理統計学の発展経緯を学ぶことが出来ます。

 

さらに次の本もオススメです。


・Theory of point estimation

世界的に有名なレーマンという統計学者の名著です。大学院レベルの統計学(点推定)を学ぶ上で定番の教科書です。

 


スポンサーリンク




・統計的検定論

同じくレーマンの名著で、統計的検定について一通り書いてある本の和訳本です。中古で買えば意外と安いですね。

 



【ベイズ統計学を学ぶ】
古い数理統計学から最近話題の機械学習へ学びを進めるにはベイズ統計学を学ばなければなりません。
さきほど紹介したS.D.Silveyのstatistical inferenceにもベイズの項目はサックリ書いていますが、あれだけでは流石に足りないので、補完する必要があります。

ベイズ入門の入門

・図解ベイズ統計学超入門

メチャメチャサックリ読めます。普通に1日で読み切れます。


ベイズ入門

・基礎からのベイズ統計学

難しい話はほとんどカットしているので非常に簡単です。読みやすいのでお勧め。これだけでベイズ統計学の基礎的な話はおしまいです。それだけベイズは簡単でとっつきやすいということですかね。



・ベイジアン計量経済学

これは完全に経済学部向けですが、この本も個人的にはオススメです。
特に序盤のベイズの説明がわかりやすいうえにそこそこ高度な内容までやるので、深く理解することが出来ます。






【数理統計学の流れを踏まえた上で機械学習にも足を踏み入れる】

ここまでやって、やっと今の時代のトピックスに移れますね。


・computer age statistical inference

現代統計学の有名人、Efron先生が書いた最新本です。最新のトピックス(SVMやニューラルネット等)も取り扱っているうえに、どういう歴史的な経緯をもって伝統的な数理統計学がここまで発展してきたのか時系列にそってじっくり書いてあります。




これで、過去のトピックスから現在のトピックスまでザックリ統計学の素地が身につくはずです!

私はそこそこ身につきました。
あとは、自分の興味に合わせて色々な分野の本を読んでみると更に補完することが出来ますし、ここまで読み進めて、最早読めない本などそうそうありませんし、もしあっても自ら掘り進める素地も出来ています。


こんな感じですね。
個別トピックの勉強プロセスについてはまたの機会にするとして、今回は統計学の素地をしっかり身に着けるために私が読んだ本について紹介しました。


何やらいっぱい紹介しましたが、いうてこれらの本は大学1年生から大学4年生までの4年間で読んだ本ですし、【理系に足突っ込んでみた】からここまでで約2年です。そう考えると、意外とそこまで量は無いのかな?とは思います。

追記

追加でオススメ本記事書きました!興味があればご覧ください。

計量経済学に関するオススメ本
www.bananarian.net

ミクロ経済学に関するオススメ本
www.bananarian.net

SQLに関するオススメ本
www.bananarian.net

【初心者向け】2017年統計検定1級数理問1の解説

何やらまた新しいカテゴリーを始めてみました。
「統計学」でググったら、正直どういう記事が出てくるかって言うと、統計検定系の記事が多いんですよね。

やはり統計学関連で需要があるのは統計検定なのか!!


そんな身も蓋もない事実に気付いてしまったんですね。
※正直統計検定を持っていたからと言って、実務で役に立つかと言われると怪しいような気もするのですが、何はともあれ検定系の話題は需要があるみたいです!

スポンサーリンク



というわけで、ちょくちょく統計検定1級の解説記事でもあげていきます。
やはり1級ともなると中々難易度も高いようで、解説記事が少ないということと、難易度が高い割には公式があげている解説も略解すぎて解き方自体はよくわからないという問題点があるようです。

また、1級の解説記事を書いているブログも多少はあるようなのですが、何やらわざわざ一般解を証明してから具体的な数値を代入していたりして、全く試験であることを想定していない解答というか、多分記事書いている本人が解き方わからなかったから、一般的な証明をコピペしてきて、代入したんだろうなーというような解答が結構あったので、私の記事はリアリティある解答を心掛けていくつもりで書いていきます。


そして、少しずつ解説記事をあげてカテゴリーに突っ込んでいけば、Google検索からの訪問者数も増えるのでは!?という感じです笑


まあとりあえずやっていきますね。




というわけで、2017年 統計検定1級 統計数理 問1 対策用解説 を始めていきます。

2017年統計検定数理1級印象

まず、問題のpdfはコレ↓です。
http://www.toukei-kentei.jp/wp-content/uploads/201711grade1suri.pdf

ぱっと見た感じ、理系で統計学の授業を取っていた方なら、半分は解けそうだなあというくらいの印象は受けますね。
解答を読む限り、「証明せよ」という名言がないのであれば説明したり概要を述べたりする際の記述は簡単なもので良いようです(問1[4]など)

問1の概要

まず、問題のセットアップは次の通りです。
f:id:bananarian:20180909011616p:plain

少なくとも4次のモーメントまでは存在する分布に従う確率変数 Xを考えているようです。長々と書いて鬱陶しいなあと思う方のために、少し解説しておくと、確率変数の期待値、分散、歪度、尖度は必ずしも存在するとは限らないというところが、この問題文の肝になっています。

例えば コーシー分布 という分布があります。ちょっと不思議に思うかもしれませんが、この分布、期待値が存在しません。

ちなみに、期待値が存在しない場合、必ず分散は存在しません。分散が存在しない場合は必ず歪度も存在しません。歪度が存在しない場合は必ず尖度も存在しません。つまり、期待値が存在しない場合は分散も歪度も尖度も存在しません。


そういうわけで、問題文がこれだけ長くなっています。これくらいセットアップをしておかないと、中心極限定理やらなんやらの問題を出すときに面倒くさいんですね。



 \bar{X}は標本平均ですね。標本平均は期待値の推定量として中々強い性質を持っていて、不偏であり、一致性ももっています。


 T^2は、期待値の真値 \muを知っているという仮定のもとでの分散の推定量ですね。非現実的な推定量だと思います。


 S^2は、分散の不偏推定量ですね。当然一致性も持ちます。一般的かつ初歩的な統計学の教科書では、まずこの推定量が分散の推定量として便利だよーといった話をします。ただ、本当にこの推定量が最適なのかどうかは少し考えなければなりません。
というのも、一昔前ならさておき、今の時代であればサンプルサイズを大きく取れる場合が多いので、一致性一本で攻めるべき場面も多く、不偏推定量であるよりも、一致性を満たす中で最小分散な推定量を見つけてくる方が良い場面もあるはずです。



問1[1]

f:id:bananarian:20180909013421p:plain
 \bar{X},T^2,S^2についてそれぞれ不偏性を示し、ついでに \bar{X}の分散くらいなら秒で出るだろうから出しとけといった趣旨でしょうか。

これは期待値演算子の計算方法が分かっていれば簡単です。サックリ解いていきましょう。

まず、 \bar{X}の期待値と分散について
 E[\bar{X}]=E[\frac{1}{n}\sum_{i=1}^{n}X_i]=\frac{1}{n}\sum_{i=1}^{n}E[X_i]=\frac{1}{n}\sum_{i=1}^{n}\mu=\frac{n\mu}{n}=\mu
 V[\bar{X}]=V[\frac{1}{n}\sum_{i=1}^{n}X_i]= \frac{1}{n^2}\sum_{i=1}^{n}V[X_i]=\frac{1}{n^2}\sum_{i=1}^{n}\sigma^2=\frac{n\sigma^2}{n^2}=\frac{\sigma^2}{n}

期待値が \muだということはこの \bar{X}は不偏推定量ですね。
ついでに、聞かれてはいませんが、nが大きくなると分散は \sigma^2<∞より、殆ど0になりますね。つまり一致性が成り立ちます。


更に T^2の期待値を考えます。
 E[T^2]=E[\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2]=\frac{1}{n}\sum_{i=1}^{n}E[(X_i-\mu)^2]
 =\frac{1}{n}\sum_{i=1}^{n}V[X_i]=\frac{n\sigma^2}{n}=\sigma^2

分散に関する不偏推定量であることがわかりますね。


最後に S^2の期待値を考えます。
 E[S^2]=E[\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2]=E[\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\mu+\mu-\bar{X})^2]
=E[\frac{1}{n-1}\sum_{i=1}^{n}\{(X_i-\mu)^2+(\mu-\bar{X})^2+2(X_i-\mu)(\mu-\bar{X})\}]
 =\frac{1}{n-1}\sum_{i=1}^{n}\{E[(X_i-\mu)^2]+E[(\mu-\bar{X})^2]+2E[(X_i-\mu)(\mu-\bar{X})]\}
 =\frac{1}{n-1}\sum_{i=1}^{n}\{V[X_i]-V[\bar{X}]+2E[(X_i\mu-\mu^2-X_i\bar{X}+\mu\bar{X})]
 =\frac{1}{n-1}\sum_{i=1}^{n}\{\sigma^2-\frac{\sigma^2}{n}+2(\mu\mu-\mu^2-\mu E[\bar{X}]+\mu E[\bar{X}])]\}
 =\frac{1}{n-1}\sum_{i=1}^{n}\{\sigma^2-\frac{\sigma^2}{n}\}
 =\frac{1}{n-1}\sum_{i=1}^{n}\{\frac{(n-1)\sigma^2}{n}\}
 =\frac{1}{n-1}\{(n-1)\sigma^2\}=\sigma^2

はい、ちょっと長かったですが不偏推定量であることが確認出来ました。



問1[2]

f:id:bananarian:20180909020900p:plain

歪度の定義は書いてあるので、これもゴリゴリ計算するのみです。

 (\bar{X}の歪度)=\frac{E[(\bar{X}-E[\bar{X}])^3]}{(\sqrt{V[\bar{X}]})^3}=\frac{E[(\bar{X}-\mu)^3]}{(\sqrt{\frac{\sigma^2}{n}})^3}=\frac{E[(\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu))^3]}{(\sqrt{\frac{\sigma^2}{n}})^3}
 =\frac{\frac{1}{n^3}E[(\sum_{i=1}^{n}(X_i-\mu))^3]}{(\sqrt{\frac{\sigma^2}{n}})^3}

 X_iが互いに独立であることに注意すると

 =\frac{\frac{1}{n^3}\sum_{i=1}^{n}E[(X_i-\mu)^3]}{(\sqrt{\frac{\sigma^2}{n}})^3}

ここ、ちょっとわかりにくいかもしれないので補足すると、 E[(X_i-\mu)^2(X_j-\mu)], (i≠j)とかを考えたところで、独立なので0になります。そのため3乗になってる部分しか残らないというわけです。

 =\frac{\frac{1}{n^3}n\sigma^3\beta_1}{(\sqrt{\frac{\sigma^2}{n}})^3}
 =\frac{\frac{1}{n^2}\sigma^3\beta_1}{(\sqrt{\frac{\sigma^2}{n}})^3}
 =\frac{\frac{1}{n^2}\sigma^3\beta_1}{(\frac{\sigma^3}{n\sqrt{n}})}=\frac{\beta_1}{\sqrt{n}}


初見殺しだと思うかもしれませんが、方針を立ててから計算を始めればなんてことはありません。
モチベーションとしては、「3乗を展開したらダルそう」「でも、 \bar{X}はなんとかしないと鬱陶しい」というところからスタートしています。




問1[3]

f:id:bananarian:20180909045152p:plain
これはもう4乗になっているだけで[2]と全く同じ方針で解けます。



問1[4]

f:id:bananarian:20180909045247p:plain

これも[2],[3]が正しく計算できていればほぼ自明ですね。分母に nがあり、分子は仮定から有限なので、nが十分大きくなればほとんど0です。よって、歪度も尖度も0に向かいます。

公式の略解では中心極限定理についても言及していましたが、、問題文では歪度と尖度の振舞いについて述べよとのことでしたので、いらないような気がします。




問1[5]

f:id:bananarian:20180909045927p:plain

最尤推定量は完全にボーナス問題ですね。なんせ、同時分布について対数取って微分してイコール0とおけば大体出てくるわけなので。一応やってみましょう。

 \log{\prod_{i=1}^{n}f(x_i)}=-\frac{\sum_{i=1}^{n}(x_i-\mu)^2}{2\sigma^2}+n\log{\frac{1}{2\pi}}-\frac{n}{2}\log{\sigma^2}

 \frac{\partial}{\partial \sigma^2}\log{f(x)}=\frac{2\sum_{i=1}^{n}(x-\mu)^2}{(2\sigma^2)^2}-\frac{n}{2}\frac{1}{\sigma^2}

この式がイコール0となるような \sigma^2について解き、その解を \hat{\sigma^2}とおくことにすると
 \hat{\sigma^2}=\frac{\sum_{i=1}^{n}(x-\mu)^2}{n}=T^2


ここで \muが未知であるとすると、 \mu \muに関する最尤推定量を代入すればよく、この時の \sigma^2の最尤推定量 \hat{\sigma^2}

 \hat{\sigma^2}=\frac{\sum_{i=1}^{n}(x-\bar{X})^2}{n}=\frac{n}{n-1}S^2




とりあえず問1は以上になります。恐らくここはボーナス問題なので、解けないと合格はしんどそうですね。
次回は問2をやっていきます。



      • キーワード---

統計検定1級 解説 数理 統計数理 2017年 解答