bayesian_info_criterion

astropy.stats.bayesian_info_criterion(log_likelihood, n_params, n_samples)[ソース]

ベイズ情報基準(BIC)を計算し、推定(または解析導出)パラメータ、パラメータ数、およびサンプル数で評価される尤度関数の対数を与える。

BICは、一般に、(したがって、モデルの複雑さを増加させる)自由パラメータの数を増加させることが明らかにより良い適合を生じるかどうかを決定するために使用この決定はBICの最も低いモデルに有利である.

BIC指定

\[\mathm{bic}=k\ln(N)-2 L,\]

そのうち \(n\) サンプルの大きさです \(k\) アイドルパラメータの数であり \(L\) 最尤推定(すなわち、L最大化のパラメータ)で推定されるモデルの対数尤度関数である。

2つのモデルを比較する際には、定義してください \(\Delta \mathrm{{BIC}} = \mathrm{{BIC}}_h - \mathrm{{BIC}}_l\) その中で \(\mathrm{{BIC}}_h\) BICが高く \(\mathrm{{BIC}}_l\) 低いBICです。高ければ高いほどいい \(\Delta \mathrm{{BIC}}\) BICが高いモデルほど証拠が強い.

一般的な経験則は

\(0 < \Delta\mathrm{{BIC}} \leq 2\) :モデルが低いほど良い証拠が不十分

\(2 < \Delta\mathrm{{BIC}} \leq 6\) :適度な証拠によると、モデルが低い方がいい

\(6 < \Delta\mathrm{{BIC}} \leq 10\) :強力な証拠はモデルが低いほど良いことを示している

\(\Delta\mathrm{{BIC}} > 10\) :非常に強力な証拠はモデルが低いほど良いことを示している

詳細についてはご参照ください [1] - [5].

パラメータ
log_likelihood浮いている.

最大値点(パラメータ空間に対して)で評価されるモデルの尤度関数の対数を算出する。

n_params集積する.

モデルの自由変数の個数,すなわちパラメータ空間の次元である.

n_samples集積する.

回数を観察する。

返品
bic浮いている.

ベイズ情報基準。

参考文献

1(1,2)

最尤推定とベイズ情報基準<https://hea-www.atherard.edu/Asterstat/STAT 310_0910/DR_20100323_mle.pdf>

2

Wikipedia。ベイズ情報基準。<https://en.wikipedia.org/wiki/Bayesian_information_criteria>

3

起源実験室です。2つのフィッティング関数を比較する。<https://www.OriginLab.com/doc/Origin-Help/PostFit-CompareFitFunc>

4

天体物理モデル選択の情報基準。2008年。<https://arxiv.org/pdf/estio-ph/0701132 v 2.pdf>

5

リドルA.R.はどのくらいの宇宙学パラメータを持っていますか?2008<https://arxiv.org/pdf/estio-ph/0401198 v 3.pdf>

実例.

以下の例は最初に [1]. ガウスモデル(μ,sigma)とt-学生モデル(μ,sigma,Delta)を考える.また,tモデルがより高い可能性を提供していると仮定する.BICが提案された回答の1つの質問は,“可能性が増加したのはパラメータ数が増加したからであるか?”である.

>>> from astropy.stats.info_theory import bayesian_info_criterion
>>> lnL_g = -176.4
>>> lnL_t = -173.0
>>> n_params_g = 2
>>> n_params_t = 3
>>> n_samples = 100
>>> bic_g = bayesian_info_criterion(lnL_g, n_params_g, n_samples)
>>> bic_t = bayesian_info_criterion(lnL_t, n_params_t, n_samples)
>>> bic_g - bic_t 
2.1948298140119391

したがって,t-Studentモデルの尤度増加はパラメータの数が多いためであるという適度な証拠がある.