معیار اطلاعاتی آکائیکه
معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شدهاست و نشان میدهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات میشود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار میکند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.
با توجه به دادهها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC میتوان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدلها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانهای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.
تعریف
در حالت کلی ، AIC برابر است با:
که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.
AIC تصحیح شده
با تصحیح مرتبه دو AIC برای نمونههای با تعداد کمتر AICc به دست میآید:
از آنجایی که برای نمونههای با تعداد زیاد AICc به AIC همگرا میشود، همیشه باید AICc را به جای AIC بکار برد.
منابع
- ↑ Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control. ۱۹ (۶): ۷۱۶–۷۲۳. doi:۱۰٫۱۱۰۹/TAC.۱۹۷۴٫۱۱۰۰۷۰۵. MR۰۴۲۳۷۱۶.
- ↑ Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
- ↑ Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
- ↑ Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection, Amsterdam Workshop on Model Selection.