Différence entre AIC et BIC Différence entre

Anonim

AIC contre BIC

AIC et BIC sont largement utilisés dans les critères de sélection des modèles. AIC signifie Akaike's Information Criteria et BIC signifie Bayesian Information Criteria. Bien que ces deux termes traitent de la sélection du modèle, ils ne sont pas identiques. On peut rencontrer la différence entre les deux approches de la sélection du modèle.

Les critères d'information d'Akaike ont été établis en 1973 et les critères d'information bayésiens en 1978. Hirotsugu Akaike a développé les critères d'information d'Akaike alors que Gideon E. Schwarz a développé un critère d'information bayésien.

L'AIC peut être qualifiée de mesure de la qualité d'ajustement de tout modèle statistique estimé. Le BIC est un type de sélection de modèle parmi une classe de modèles paramétriques avec différents nombres de paramètres.

En comparant les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour les paramètres supplémentaires est plus en BIC qu'en AIC. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.

Les critères d'information d'Akaike tentent généralement de trouver un modèle inconnu qui a une grande réalité dimensionnelle. Cela signifie que les modèles ne sont pas de vrais modèles dans AIC. D'un autre côté, les critères d'information bayésiens ne concernent que les modèles vrais. On peut également dire que les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne le sont pas.

Quand les critères d'information d'Akaike présenteront le danger que cela créerait. Les Critères d'Information Bayésiens présenteront le danger que cela constituerait. Bien que le BIC soit plus tolérant comparé à l'AIC, il montre moins de tolérance à des nombres plus élevés.

Les critères d'information d'Akaike sont bons pour faire une validation croisée asymptotiquement équivalente. Au contraire, les critères d'information bayésiens sont bons pour une estimation cohérente.

Résumé

1. AIC signifie Akaike's Information Criteria et BIC signifie Bayesian Information Criteria.

2. Les critères d'information d'Akaike ont été formés en 1973 et les critères d'information bayésiens en 1978.

3. En comparant les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour les paramètres supplémentaires est plus en BIC qu'en AIC.

4. Les critères d'information d'Akaike tentent généralement de trouver un modèle inconnu qui a une grande réalité dimensionnelle. D'un autre côté, les critères d'information bayésiens ne concernent que les modèles vrais.

5. Bayesian Information Criteria est cohérent alors que les critères d'information d'Akaike ne le sont pas.

6. Les critères d'information d'Akaike sont bons pour faire une validation croisée asymptotiquement équivalente. Au contraire, les critères d'information bayésiens sont bons pour une estimation cohérente.

7. Bien que le BIC soit plus tolérant comparé à l'AIC, il montre moins de tolérance à des nombres plus élevés.

8. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.

- top iFrame -> - iFrame inférieur ->

//