2021年11月21日日曜日

正規分布のおもちゃ【GALTON BOARD】





正規分布

概要

平均を μ分散を σ2 > 0 とする(1次元)正規分布とは、確率密度関数が次の形(ガウス関数と呼ばれる) 

f  (  x  )  =  1  2  π  σ  2  exp  (    (  x    μ  )  2  2  σ  2  )  (  x    R  )  {\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \!\left(-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right)\quad (x\in \mathbb {R} )}{\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \!\left(-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right)\quad (x\in \mathbb {R} )}

で与えられる確率分布のことである[1][2]。この分布を N(μσ2) と表す[1]。(N は「正規分布」を表す英語 "normal distribution" の頭文字から取られている)。 

標準正規分布

特に μ = 0σ2 = 1 のとき、この分布は(1次元)標準正規分布(または基準正規分布)と呼ばれる[3]。つまり標準正規分布 N(0, 1) は 

f  (  x  )  =  1  2  π  exp  (    x  2  2  )  {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\exp \!\left(-{\frac {x^{2}}{2}}\right)}{\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\exp \!\left(-{\frac {x^{2}}{2}}\right)}

なる確率密度関数を持つ確率分布として与えられる。 

再生性

正規分布は再生性を持つ[4] —— つまり確率変数 X1, …, Xn が独立にそれぞれ正規分布 N(μ1σ12), …, N(μnσn2) に従うとき、線型結合 aiXi は正規分布 N(∑aiμi, ∑ai2σi2) に従う。 

確率密度関数

正規分布の確率密度関数をグラフ化した正規分布曲線は左右対称な釣鐘状の曲線であり、の形に似ていることからベル・カーブ(鐘形曲線)とも呼ばれる。直線 x = μ に関して対称であり、x 軸は漸近線である。なお、曲線は σ の値が大きいほど扁平になる。 

なお、中心極限定理により、巨大な n に対する二項分布とも考えることができる。 

平均値の周辺の n 次中心化モーメントは、各次数 n に対して 

E  [  (  X    μ  )  n  ]  =  {  0  ,  if   n   is odd  (  n    1  )  !  !  σ  n  ,  if   n   is even{\displaystyle E[(X-\mu )^{n}]={\begin{cases}0,&{\text{if }}n{\text{ is odd}}\\[1ex](n-1)!!\,\sigma ^{n},&{\text{if }}n{\text{ is even}}\end{cases}}}{\displaystyle E[(X-\mu )^{n}]={\begin{cases}0,&{\text{if }}n{\text{ is odd}}\\[1ex](n-1)!!\,\sigma ^{n},&{\text{if }}n{\text{ is even}}\end{cases}}}

となることが知られている[5](2n − 1)!! := (2n − 1) ⋅ (2n − 3) ⋅ … ⋅ 3 ⋅ 1。 

多変量正規分布

詳細は「多変量正規分布」を参照

また、多変量の統計として共分散まで込めた多次元の正規分布も定義され、平均 μ = (μ1μ2, …, μn) の n 次元正規分布の同時密度関数は次の式で与えられる。 

f  (  x  )  =  1  (  2  π  )  n  |  Σ  |  exp  (    1  2  (  x    μ  )  T  Σ    1  (  x    μ  )  ){\displaystyle f(x)={\frac {1}{({\sqrt {2\pi }})^{n}{\sqrt {\vert {\mathit {\Sigma }}\vert }}}}\exp \!\left(-{\frac {1}{2}}(x-\mu )^{\mathrm {T} }\,{\mathit {\Sigma }}^{-1}(x-\mu )\right)}{\displaystyle f(x)={\frac {1}{({\sqrt {2\pi }})^{n}{\sqrt {\vert {\mathit {\Sigma }}\vert }}}}\exp \!\left(-{\frac {1}{2}}(x-\mu )^{\mathrm {T} }\,{\mathit {\Sigma }}^{-1}(x-\mu )\right)}

ここで、 = (σij) は分散共分散行列と呼ばれる正定値対称行列である。|Σ| は Σ の行列式。なお、A[x] は(対称)行列 A とベクトル x に対して二次形式 xTAx を意味するもの(ジーゲルの記号)とすると (x − μ)T−1(x − μ) = −1[x − μ] と書くこともできる。 

この n 次元正規分布を Nn(μ) と表す[6]。特に1次元の場合、平均 (μ) と分散共分散行列  = (σ2) は共に1次元の平均と分散を意味する1つの実数値であり、記号 N1((μ), ) = N1((μ), (σ2)) は単に N(μσ2) と書かれる(先に述べた1次元の場合の記号と同じものと理解してよい)。 

歪正規分布

正規分布の拡張としては、上で示した多次元化を施した多変量正規分布の他に、歪正規分布 (Skew-Normal (SN) distribution) がある。これは三変数で表現され、そのうち1つの変数について α = 0 のときに正規分布となることから、分布を平均と分散の二変数で表現する正規分布の拡張であるといえる。φ(x) を標準正規分布の確率密度関数とする。 

ϕ  (  x  )  =  1  2  π  e    x  2  2  {\displaystyle \phi (x)={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}}{\displaystyle \phi (x)={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}}

その累積確率密度関数は次で与えられる。 

Φ  (  x  )  =        x  ϕ  (  t  )  d  t  =  1  2  [  1  +  erf    (  x  2  )  ]  {\displaystyle \Phi (x)=\int _{-\infty }^{x}\phi (t)\,dt={\frac {1}{2}}\left[1+\operatorname {erf} \left({\frac {x}{\sqrt {2}}}\right)\right]}{\displaystyle \Phi (x)=\int _{-\infty }^{x}\phi (t)\,dt={\frac {1}{2}}\left[1+\operatorname {erf} \left({\frac {x}{\sqrt {2}}}\right)\right]}

ここに "erf" は誤差関数シグモイド関数)である。このとき、標準正規分布に対応する歪正規分布 SN(0, 1, α) の確率密度関数は次で与えられる。 

f  (  x  )  =  2  ϕ  (  x  )  Φ  (  α  x  )  {\displaystyle f(x)=2\phi (x)\Phi (\alpha x)}{\displaystyle f(x)=2\phi (x)\Phi (\alpha x)}

これに平均のようなもの相当する変数と分散のようなものに相当する変数を加えるためにZ変換(標準化)の逆 y = ξ + ωx を施す。すると歪正規分布は一般の形になり、以下の関係が成り立つ。 

Y    SN    (  ξ  ,  ω  2  ,  α  )  {\displaystyle Y\sim \operatorname {SN} (\xi ,\omega ^{2},\alpha )}

歴史

正規分布はアブラーム・ド・モアブルによって1733年に導入された[7]。この論文はド・モアブル自身による1738年出版の The Doctrine of Chances 第二版の中で、高い次数に関する二項分布の近似の文脈において再掲されている。ド・モアブルの結果はピエール=シモン・ラプラスによる『確率論の解析理論』(1812年)において拡張され、いまではド・モアブル–ラプラスの定理と呼ばれている。 

ラプラスは正規分布を実験の誤差の解析に用いた。その後アドリアン=マリ・ルジャンドルによって1805年最小二乗法が導入され[8]1809年カール・フリードリヒ・ガウスによる誤差論で詳細に論じられた(ガウスは1794年から最小二乗法を知っていたと主張していた)。 

「ベル・カーブ」という名前は、1872年に2変数正規分布に対して「鐘形曲面」という言葉を用いた Esprit Jouffret英語版 にさかのぼる。「正規分布」という言葉はチャールズ・サンダース・パースフランシス・ゴルトンヴィルヘルム・レキシスの3人によって1875年頃に独立に導入された。 

統計的な意味

正規分布 N(μσ2) からの無作為標本 x を取ると、平均 μ からのずれが ±1σ 以下の範囲に x が含まれる確率は 68.27%、±2σ 以下だと 95.45%、さらに ±3σ だと 99.73% となる。 

正規分布は、t分布F分布といった種々の分布の考え方の基礎になっているだけでなく、実際の統計的推測においても、仮説検定区間推定など、様々な場面で利用される。 

正規分布 N(μσ) に従う確率変数 X が与えられたとき Z = X − μ/σ と標準化すれば確率変数 Z は標準正規分布に従う。大学レベルの統計入門のクラスでは必ず行われているが、Z 値を求めることでと呼ばれる変量に対応した確率を表す一覧表を用いて、コンピュータを使うことなく正規分布に従った事象の確率を求めることができる。 

不連続値をとる確率変数についての検定の場合でも、連続変数と同様の考え方で正規分布を近似的に用いることがある。これは標本の大きさ n が大きく、かつデータの階級幅が狭いほど、近似の精度が高い。 

信頼区間に対する信頼度の推移 
信頼区間信頼度危険率 
百分率百分率比 
0.318 639σ25%75%3/4
0.674490σ50%50%1/2
0.994458σ68%32%1/3.125
1σ68.2689492%31.7310508%1/3.1514872
1.281552σ80%20%1/5
1.644854σ90%10%1/10
1.959964σ95%5%1/20
2σ95.4499736%4.5500264%1/21.977895
2.575829σ99%1%1/100
3σ99.7300204%0.2699796%1/370.398
3.290527σ99.9%0.1%1/1000
3.890592σ99.99%0.01%1/10000
4σ99.993666%0.006334%1/15787
4.417173σ99.999%0.001%1/10,0000
4.5σ99.9993204653751%0.0006795346249%1/14,7159.5358
4.891638σ99.9999%0.0001%1/100,0000
5σ99.9999426697%0.0000573303%1/174,4278
5.326724σ99.99999%0.00001%1/1000,0000
5.730729σ99.999999%0.000001%1/1,0000,0000
6σ99.9999998027%0.0000001973%1/5,0679,7346
6.109410σ99.9999999%0.0000001%1/10,0000,0000
6.466951σ99.99999999%0.00000001%1/100,0000,0000
6.806502σ99.999999999%0.000000001%1/1000,0000,0000 
7σ99.9999999997440%0.000000000256%1/3906,8221,5445 

正規分布の適用

自然界の事象の中には正規分布に従う数量の分布をとるものがあることが知られている[9]。また、そのままでは変数が正規分布に従わない場合もその対数をとると正規分布に従う場合がある。 

正規分布が統計学上特別な地位を持つのは中心極限定理が存在するためである。中心極限定理は、「独立な同一の分布に従う確率変数の算術平均(確率変数の合計を変数の数で割ったもの)の分布は、元の確率変数に標準偏差が存在するならば、元の分布の形状に関係なく、変数の数が多数になったとき、正規分布に収束する」というものである。このため大標本の平均値の統計には、正規分布が仮定されることが非常に多い。 

前述のごとく自然界の事象の中には、正規分布に従う数量の分布をとるものがあることが知られている。しかしそれは必ずしも多数派というわけではない。19世紀ではさながら「正規分布万能主義」といったものがまかり通っていたが、20世紀以降そういった考え方に修正が見られた。今日においては社会現象、生物集団の現象等々、種別から言えば、正規分布に従うものはむしろ少数派であることが確認されている。例えば、フラクタルな性質を持つ物は正規分布よりも、パレート分布になることが多い。人間は自然界の事象とは違って自分の意思をもっているため、たとえば、子供の成績などは決して正規分布にはならない[9]。しかし、そもそも理論上、正規分布の x の値は負の無限大から正の無限大まで取れるのに対して、多くの事象は最小値(例えば比例尺度におけるゼロ)と最大値(例えばテストにおける100点満点)が予め定まっている場合があり、そのような事象が完全な正規分布に従うとするには無理がある(その際はcensoringつまり打ち切りを考慮したり、対数正規分布を用いたりするとより正確な確率を求めることが出来る場合がある)。また、0 および自然数しかとらない離散確率分布、例えばポアソン分布二項分布連続確率分布である正規分布で近似することも一般的に行われている。 

検定

何らかの事象について法則性を捜したり理論を構築しようとしたりする際、その確率分布がまだ分かっていない場合にはそれが正規分布であると仮定して推論することは珍しくないが、誤った結論にたどりついてしまう可能性がある。標本データが正規分布に近似しているかどうを判断するためには、尖度歪度を調べる、ヒストグラムを見る、正規Q-Qプロットをチェックする、あるいはシャピロ–ウィルク検定コルモゴロフ–スミルノフ検定(正規分布)を利用する方法などが一般的に行われている。 

点推定

平均や分散が未知の正規分布に従うデータから、母数 θ = (μσ2) を推定したいことがある。これには次の推定量 θ  ^  =  (  μ  ^  ,  σ  ^  2  )  {\displaystyle {\hat {\theta }}=({\hat {\mu }},{\hat {\sigma }}^{2})}{\displaystyle {\hat {\theta }}=({\hat {\mu }},{\hat {\sigma }}^{2})}がよく用いられる。正規分布 N(μσ2) からの無作為標本 x1, …, xn が与えられたとき、 

μ  ^  =  1  n    i  =  1  n  x  i  σ  ^  2  =  1  n    1    i  =  1  n  (  x  i    μ  ^  )  2{\displaystyle {\begin{aligned}{\hat {\mu }}&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}\\{\hat {\sigma }}^{2}&={\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\hat {\mu }})^{2}\end{aligned}}}{\displaystyle {\begin{aligned}{\hat {\mu }}&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}\\{\hat {\sigma }}^{2}&={\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\hat {\mu }})^{2}\end{aligned}}}

最小分散不偏推定量英語版である[10]。 

区間推定

詳細
この節の加筆が望まれています。

脚注

  1. a b 稲垣 1990, pp. 44–45.
  2.  JIS Z 8101-1 : 1999, 1.25 正規分布.
  3.  JIS Z 8101-1 : 1999, 1.26 標準正規分布 (standardized normal distribution, standardized Laplace–Gauss distribution).
  4.  Cramér 1946, § 17.3.
  5.  Cramér 1946, (17.2.3).
  6.  稲垣 1990, p. 86.
  7.  Abraham de Moivre, "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi"(1733年11月12日に私的な回覧用にロンドンで印刷された。)このパンフレットは以下に挙げる各書物に再掲されている: (1) Richard C. Archibald (1926) "A rare pamphlet of Moivre and some of his discoveries," Isis, vol. 8, pages 671–683; (2) Helen M. Walker, "De Moivre on the law of normal probability" in David Eugene Smith, A Source Book in Mathematics [New York, New York: McGraw-Hill, 1929; reprinted: New York, New York: Dover, 1959], vol. 2, pages 566–575.; (3) Abraham De Moivre, The Doctrine of Chances (2nd ed.) [London: H. Woodfall, 1738; reprinted: London: Cass, 1967], pages 235-243; (3rd ed.) [London: A Millar, 1756; reprinted: New York, New York: Chelsea, 1967], pages 243–254; (4) Florence N. David, Games, Gods and Gambling: A History of Probability and Statistical Ideas [London: Griffin, 1962], Appendix 5, pages 254–267.
  8.  Stigler 1986, Figure 1.5.
  9. a b 遠山啓『数学入門(下)』岩波書店岩波新書〉(原著1960年10月20日)、初版、87頁。2009年3月5日閲覧。
  10.  岩波数学辞典 2007, 付録 公式 23.

参考文献

詳細
出典は列挙するだけでなく、脚注などを用いてどの記述の情報源であるかを明記してください。記事の信頼性向上にご協力をお願いいたします。2016年4月

関連項目

外部リンク


Normal distribution - Wikipedia

Normal distribution

This article is about the univariate probability distribution. For normally distributed vectors, see Multivariate normal distribution. For normally distributed matrices, see Matrix normal distribution.
"Bell curve" redirects here. For other uses, see Bell curve (disambiguation).

In probability theory, a normal (or Gaussian or Gauss or Laplace–Gaussdistribution is a type of continuous probability distribution for a real-valued random variable. The general form of its probability density function is 

Normal distribution

Probability density function

Normal Distribution PDF.svg

The red curve is the standard normal distribution

Cumulative distribution function

Normal Distribution CDF.svg
Notation
Parameters= mean (location)
= variance (squared scale)
Support
PDF
CDF
Quantile
Mean
Median
Mode
Variance
MAD
Skewness
Ex. kurtosis
Entropy
MGF
CF
Fisher information

Kullback-Leibler divergence

The parameter  is the mean or expectation of the distribution (and also its median and mode), while the parameter  is its standard deviation. The variance of the distribution is .[1] A random variable with a Gaussian distribution is said to be normally distributed, and is called a normal deviate

Normal distributions are important in statistics and are often used in the natural and social sciences to represent real-valued random variables whose distributions are not known.[2][3] Their importance is partly due to the central limit theorem. It states that, under some conditions, the average of many samples (observations) of a random variable with finite mean and variance is itself a random variable—whose distribution converges to a normal distribution as the number of samples increases. Therefore, physical quantities that are expected to be the sum of many independent processes, such as measurement errors, often have distributions that are nearly normal.[4]

Moreover, Gaussian distributions have some unique properties that are valuable in analytic studies. For instance, any linear combination of a fixed collection of normal deviates is a normal deviate. Many results and methods, such as propagation of uncertainty and least squares parameter fitting, can be derived analytically in explicit form when the relevant variables are normally distributed. 

A normal distribution is sometimes informally called a bell curve.[5] However, many other distributions are bell-shaped (such as the CauchyStudent's t, and logistic distributions). 

Standard normal distribution

The simplest case of a normal distribution is known as the standard normal distribution or unit normal distribution. This is a special case when μ=0and σ=1, and it is described by this probability density function

φ(x)=ex222π

Here, the factor 1/2πensures that the total area under the curve φ(x)is equal to one.[note 1] The factor 1/2in the exponent ensures that the distribution has unit variance (i.e., variance being equal to one), and therefore also unit standard deviation. This function is symmetric around x=0, where it attains its maximum value 1/2πand has inflection points at x=+1and x=1

Authors differ on which normal distribution should be called the "standard" one. Carl Friedrich Gauss, for example, defined the standard normal as having a variance of σ2=1/2. That is: 

φ(x)=ex2π

On the other hand, Stephen Stigler[6] defines the standard normal as having a variance of σ2=1/(2π)

φ(x)=eπx2

General normal distribution

Every normal distribution is a version of the standard normal distribution, whose domain has been stretched by a factor σ(the standard deviation) and then translated by μ(the mean value): 

f(xμ,σ2)=1σφ(xμσ)

The probability density must be scaled by 1/σso that the integral is still 1. 

If Zis a standard normal deviate, then X=σZ+μwill have a normal distribution with expected value μand standard deviation σ. This is equivalent to saying that the "standard" normal distribution Zcan be scaled/stretched by a factor of σand shifted by μto yield a different normal distribution, called X. Conversely, if Xis a normal deviate with parameters μand σ2, then this Xdistribution can be re-scaled and shifted via the formula Z=(Xμ)/σto convert it to the "standard" normal distribution. This variate is also called the standardized form of X.




iPhoneから送信

0 件のコメント:

コメントを投稿