akaike_info_criterion¶
- astropy.stats.akaike_info_criterion(log_likelihood, n_params, n_samples)[ソース]¶
Akaike情報基準(AIC)を計算する。
ベイズ情報基準と同様に,AICは適合品質に対するメトリックであり,適合評価とモデル選択に用いられる.この決定はAICの最低モデルに有利である.
AICの名前は
\[\mathm{AIC}=2(k-L)\]そのうち \(n\) サンプルの大きさです \(k\) アイドルパラメータの数であり \(L\) 最尤推定(すなわち、L最大化のパラメータ)で推定されるモデルの対数尤度関数である。
サンプルサイズが“十分な大きさ”でない場合には、補正が適用される、すなわち
\[\mathm{aic}=2(k-L)+\dfrac{2 k(k+1)}{n-k-1}\]経験の法則 [1]:
\(\Delta\mathrm{AIC}_i = \mathrm{AIC}_i - \mathrm{AIC}_{min}\)
\(\Delta\mathrm{{AIC}}_i < 2\) :強力なサポートモデルI
\(3 < \Delta\mathrm{{AIC}}_i < 7\) :モデルIへのサポートが大幅に減少
\(\Delta\mathrm{{AIC}}_i > 10\) :モデルIは基本的にサポートされていません
そのうち \(\mathrm{{AIC}}_{{min}}\) 比較している車種の中で低いAICを表しています。
- パラメータ
- log_likelihood浮いている.
最大値点(パラメータ空間に対して)で評価されるモデルの尤度関数の対数を算出する。
- n_params集積する.
モデルの自由変数の個数,すなわちパラメータ空間の次元である.
- n_samples集積する.
回数を観察する。
- 返品
- aic浮いている.
Akaike情報標準社(Akaike Information Criteria)。
参考文献
- 1(1,2)
モデル選択講座第二回:アケク情報基準。<http://machinelearning 102.pbworks.com/w/file/fetch/47699383/ms_lec_2_ho.pdf>
- 2
Mazerolle,M.J.Akaikeの情報基準(AIC)の理解:モデル選択と生態データ推定における使用と解釈。<https://corpus.ulaval.ca/jspui/Handle/20.500.11794/17461>
- 3
Wikipedia。Akaike情報標準社(Akaike Information Criteria)。<https://en.wikipedia.org/wiki/Akaike_information_criteria>
- 4
起源実験室です。2つのフィッティング関数を比較する。<https://www.OriginLab.com/doc/Origin-Help/PostFit-CompareFitFunc>
- 5
天体物理モデル選択の情報基準。2008年。<https://arxiv.org/pdf/estio-ph/0701132 v 2.pdf>
- 6
リドルA.R.はどのくらいの宇宙学パラメータを持っていますか?2008<https://arxiv.org/pdf/estio-ph/0401198 v 3.pdf>
実例.
以下の例は最初に [2]. 基本的には,2つのパターンが比較されている.一方は6つのパラメータ(モデル1)を持ち,他方は5つのパラメータ(モデル2)を持つ.モデル2のAICが低いにもかかわらず,それらの差(AIC)が1.0程度であるため,モデル1を選択することができる.
>>> n_samples = 121 >>> lnL1 = -3.54 >>> n1_params = 6 >>> lnL2 = -4.17 >>> n2_params = 5 >>> aic1 = akaike_info_criterion(lnL1, n1_params, n_samples) >>> aic2 = akaike_info_criterion(lnL2, n2_params, n_samples) >>> aic1 - aic2 0.9551029748283746
したがって,より多くの自由パラメータを持つため,モデル1を強力に支援することができる.