Unterschied zwischen AIC und BIC
- 1939
- 252
- Kurt Reinelt
AIC gegen BIC
AIC und BIC werden häufig bei Modellauswahlkriterien verwendet. AIC bedeutet die Informationskriterien von Akaike und BIC bedeutet Bayes'sche Informationskriterien. Obwohl diese beiden Begriffe die Auswahl der Modellauswahl ansprechen, sind sie nicht gleich. Man kann den Unterschied zwischen den beiden Ansätzen der Modellauswahl auf den May -Unterschied stoßen.
Die Informationskriterien von Akaike wurden 1973 und die Bayes'schen Informationskriterien 1978 gebildet. Hirotsugu Akaike entwickelte Akaikes Informationskriterien, während Gideon e. Schwarz entwickelte das Bayes'sche Informationskriterium.
Die AIC kann als Mesaure der Anpassungsgüte eines geschätzten statistischen Modells bezeichnet werden. Der BIC ist eine Art von Modellauswahl unter einer Klasse von parametrischen Modellen mit unterschiedlichen Parametern.
Beim Vergleich der Bayes'schen Informationskriterien und den Informationskriterien von Akaike ist die Strafe für zusätzliche Parameter mehr in BIC als AIC. Im Gegensatz zur AIC bestraft der BIC die freien Parameter stärker.
Die Informationskriterien von Akaike versuchen im Allgemeinen, ein unbekanntes Modell zu finden, das eine hohe dimensionale Realität aufweist. Dies bedeutet, dass die Modelle keine echten Modelle in AIC sind. Andererseits treten die bayes'schen Informationskriterien auf nur echte Modelle auf. Es kann auch gesagt werden.
Wenn die Informationskriterien von Akaike die Gefahr darstellen, dass es ausgeht. Die bayes'schen Informationskriterien werden die Gefahr darstellen, dass sie unterbacken würden. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.
Die Informationskriterien von Akaike sind gut, um asymptotisch der Kreuzvalidierung asymptotisch gleichzusetzen. Im Gegenteil, die bayes'schen Informationskriterien sind gut für die konsistente Schätzung.
Zusammenfassung
1. AIC bedeutet die Informationskriterien von Akaike und BIC bedeutet Bayes'sche Informationskriterien.
2. Die Informationskriterien von Akaike wurden 1973 und die Bayes'schen Informationskriterien 1978 gebildet.
3. Beim Vergleich der Bayes'schen Informationskriterien und den Informationskriterien von Akaike ist die Strafe für zusätzliche Parameter mehr in BIC als AIC.
4. Die Informationskriterien von Akaike versuchen im Allgemeinen, ein unbekanntes Modell zu finden, das eine hohe dimensionale Realität aufweist. Andererseits treten die bayes'schen Informationskriterien auf nur echte Modelle auf.
5. Bayes'sche Informationskriterien sind konsistent, während Akaikes Informationskriterien nicht so sind.
6. Die Informationskriterien von Akaike sind gut, um asymptotisch der Kreuzvalidierung asymptotisch gleichzusetzen. Im Gegenteil, die bayes'schen Informationskriterien sind gut für die konsistente Schätzung.
7. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.
8. Im Gegensatz zur AIC bestraft der BIC die freien Parameter stärker.
//