binom_conf_interval

astropy.stats.binom_conf_interval(k, n, confidence_level=0.68269, interval='wilson')[ソース]

二項比例信頼区間はk回の成功を与え,n回の試行である.

パラメータ
kIntまたはnumpy.ndarray

成功回数(0<= k <= n )。

nIntまたはnumpy.ndarray

実験回数. (n >0)。もし両者がそれを兼ねていれば k そして n 配列であれば,同じ形状を持たなければならない.

confidence_level浮動、オプション

区間の期待確率内容.デフォルト値は0.68269で、1次元ガウス分布における1シグマに対応します。信頼度は範囲内でなければならない [0, 1] それがそうです。

interval{‘Wilson’,‘Jeffreys’,‘Flat’,‘Wald’},オプション

信頼区間に用いる式.詳細は備考を参照されたい。♪the 'wilson' そして 'jeffreys' 間隔は通常類似した結果が生じるが,“平坦”はやや異なり,特に n それがそうです。 'wilson' 比べものにならないと思います。 'flat' あるいは…。 'jeffreys' それがそうです。通常“Wald”間隔の使用は推奨されていない.これらの情報を提供するのは比較のためである.デフォルト値は 'wilson' それがそうです。

返品
conf_intervalNdarray

conf_interval[0] and conf_interval[1] correspond to the lower and upper limits, respectively, for each element in k, n.

注意事項

成功確率が分からない場合には,試行回数(N)と観察された成功回数(K)から見積もることができる.たとえば,これは検出効率を見積もるために設計されたモンテカルロ実験で行われる.成功したサンプルの割合(k/n)を真の確率の合理的な最適推定とすることは簡単である. \(\epsilon\) それがそうです。しかし,それに基づいて正確な信頼区間を導出する. \(\epsilon\) どうでもいいわけではありません。この間にはいくつかの公式がある(参照されたい) [1]) それがそうです。ここでは4つの間隔が実施されている。

1.ウィルソン区間。 この時期はウィルソンによって [2], はい。

\[Ci_{\rm Wilson}=\frac{k+\kappa^2/2}{n+\kappa^2} \pm\frac{\kappa n^{1/2}{n+\kappa^2} ((\hat{\epsilon}(1-\hat{\epsilon})+\kappa^2/(4 N))^{1/2}\]

どこだ? \(\hat{{\epsilon}} = k / n\) そして \(\kappa\) の期待信頼区間に対する標準偏差の個数. 普通だよ 分布(たとえば,信頼区間が68.269%の場合は1.0%である).信頼区間は100(1- \(\alpha\) )%、

\[\kappa=\phi^{−1}(1-\alpha/2)=\sqrt{2}{\rm erf}^{−1}(1-\alpha)。\]

2.ジェフリー期間(Jeffreys Interval)。 この区間は,ベイズの定理を無情報のJeffreys事前の二項分布に適用することで得られる [3], [4]. 情報のないJeffreysは事前にBeta分布、Beta(1/2、1/2)であり、密度関数を持っている

\[F(\epsilon)=\pi^{−1}\epsilon^{−1/2}(1-\epsilon)^{-1/2}。\]

この事前の理由は,二項割合の再パラメータ化で不変であるからである事後密度関数もBeta分布:β(k+1/2,n−k+1/2)に従う。そして間隔を選んで equal-tailed :各尾(間隔外)に含まれる \(\alpha\) 事後確率の1/2は,区間自体が1-を含む. \(\alpha\) それがそうです。この間隔は数字で計算しなければならない.また,k=0の場合は下限を0,k=nの場合は上限を1とするため,これらの場合は1つしか含まれていない. \(\alpha\) /2、間隔自体が1-を含む \(\alpha\) /2名目ではなく1- \(\alpha\) それがそうです。

3.平級教席。 これはJeffreys間隔と類似しているが、再パラメータ化されたJeffreys事前ではなく、二項割合に対して0から1の範囲で平坦(統一)の事前を使用する。事後密度関数はBeta分布:β(k+1,n−k+1)である。区間の性質に関する同じ注釈(等尾など)このオプションにも適用される.

4.ウォルド区間(Wald Interval)。 この間隔は次式で与えられる.

\[CI_{\rm wald}=\hat{\epsilon}\pm \kappa\sqrt{\frac{\hat{\epsilon}(1-\hat{\epsilon})}{n}}\]

場合によっては,Wald間隔は受け入れ可能な結果を与える.特にnが大きい場合には実際の割合は \(\epsilon\) 0や1に“近すぎる”わけではありません。しかし、後者は推定を試みる際には検証できないからです。 \(\epsilon\) これはあまり役に立ちません。これの使用は推奨されていないが,日常実用統計における流行度のため,ここで提供するのは比較のためである.

この機能には scipy すべての間隔タイプに適用される.

参考文献

1

ブラウン、ローレンスD.;蔡、T.トニー;ダスグプタ、オニールバン(2001)。“二項比例の区間推定”である.統計科学16(2):101-133。DOI:10.1214/ss/1009213286

2

ウィルソン、E.B.(1927年)。確率推論,継承法則,統計推論.アメリカ統計協会定期刊行物22:209-212。

3

ジェフリー·ハロルド(1946年)。“問題における事前確率を推定する1つの不変形式”。段取りR.Soc.ランド。A 24186(1007):453-461。Doi:10.1098/rspa.1946.0056

4

ジェフリー·ハロルド(1998年)。確率論。オックスフォード大学出版社、第3版。ISBN 978-019503682

実例.

整数入力戻り形状が(2,)の配列:

>>> binom_conf_interval(4, 5, interval='wilson')  
array([0.57921724, 0.92078259])

任意の次元数の配列をサポートする.小さいk,n,WilsonとJeffreys区間についても類似した結果が得られた.

>>> binom_conf_interval([1, 2], 5, interval='wilson')  
array([[0.07921741, 0.21597328],
       [0.42078276, 0.61736012]])
>>> binom_conf_interval([1, 2,], 5, interval='jeffreys')  
array([[0.0842525 , 0.21789949],
       [0.42218001, 0.61753691]])
>>> binom_conf_interval([1, 2], 5, interval='flat')  
array([[0.12139799, 0.24309021],
       [0.45401727, 0.61535699]])

逆に,小さいk,nに対してWald間隔は悪い結果を与え,k=0またはk=nのとき,間隔の長さはつねにゼロとなる.

>>> binom_conf_interval([1, 2], 5, interval='wald')  
array([[0.02111437, 0.18091075],
       [0.37888563, 0.61908925]])

1に近い信頼区間に対して,0<k<nのWald区間は外向きに延びる区間を与えることができる. [0, 1] :

>>> binom_conf_interval([1, 2], 5, interval='wald', confidence_level=0.99)  
array([[-0.26077835, -0.16433593],
       [ 0.66077835,  0.96433593]])