akaike_info_criterion

astropy.stats.akaike_info_criterion(log_likelihood, n_params, n_samples)[ソース]

Akaike情報基準(AIC)を計算する。

ベイズ情報基準と同様に,AICは適合品質に対するメトリックであり,適合評価とモデル選択に用いられる.この決定はAICの最低モデルに有利である.

AICの名前は

\[\mathm{AIC}=2(k-L)\]

そのうち \(n\) サンプルの大きさです \(k\) アイドルパラメータの数であり \(L\) 最尤推定(すなわち、L最大化のパラメータ)で推定されるモデルの対数尤度関数である。

サンプルサイズが“十分な大きさ”でない場合には、補正が適用される、すなわち

\[\mathm{aic}=2(k-L)+\dfrac{2 k(k+1)}{n-k-1}\]

経験の法則 [1]:

\(\Delta\mathrm{AIC}_i = \mathrm{AIC}_i - \mathrm{AIC}_{min}\)

\(\Delta\mathrm{{AIC}}_i < 2\) :強力なサポートモデルI

\(3 < \Delta\mathrm{{AIC}}_i < 7\) :モデルIへのサポートが大幅に減少

\(\Delta\mathrm{{AIC}}_i > 10\) :モデルIは基本的にサポートされていません

そのうち \(\mathrm{{AIC}}_{{min}}\) 比較している車種の中で低いAICを表しています。

詳細についてはご参照ください [1]-[6].

パラメータ
log_likelihood浮いている.

最大値点(パラメータ空間に対して)で評価されるモデルの尤度関数の対数を算出する。

n_params集積する.

モデルの自由変数の個数,すなわちパラメータ空間の次元である.

n_samples集積する.

回数を観察する。

返品
aic浮いている.

Akaike情報標準社(Akaike Information Criteria)。

参考文献

1(1,2)

モデル選択講座第二回:アケク情報基準。<http://machinelearning 102.pbworks.com/w/file/fetch/47699383/ms_lec_2_ho.pdf>

2

Mazerolle,M.J.Akaikeの情報基準(AIC)の理解:モデル選択と生態データ推定における使用と解釈。<https://corpus.ulaval.ca/jspui/Handle/20.500.11794/17461>

3

Wikipedia。Akaike情報標準社(Akaike Information Criteria)。<https://en.wikipedia.org/wiki/Akaike_information_criteria>

4

起源実験室です。2つのフィッティング関数を比較する。<https://www.OriginLab.com/doc/Origin-Help/PostFit-CompareFitFunc>

5

天体物理モデル選択の情報基準。2008年。<https://arxiv.org/pdf/estio-ph/0701132 v 2.pdf>

6

リドルA.R.はどのくらいの宇宙学パラメータを持っていますか?2008<https://arxiv.org/pdf/estio-ph/0401198 v 3.pdf>

実例.

以下の例は最初に [2]. 基本的には,2つのパターンが比較されている.一方は6つのパラメータ(モデル1)を持ち,他方は5つのパラメータ(モデル2)を持つ.モデル2のAICが低いにもかかわらず,それらの差(AIC)が1.0程度であるため,モデル1を選択することができる.

>>> n_samples = 121
>>> lnL1 = -3.54
>>> n1_params = 6
>>> lnL2 = -4.17
>>> n2_params = 5
>>> aic1 = akaike_info_criterion(lnL1, n1_params, n_samples)
>>> aic2 = akaike_info_criterion(lnL2, n2_params, n_samples)
>>> aic1 - aic2 
0.9551029748283746

したがって,より多くの自由パラメータを持つため,モデル1を強力に支援することができる.