در آمار ریاضی از واگرایی کولبک-لیبلر یا انتروپی نسبی به عنوان معیاری برای اندازهگیری واگرایی یک توزیع احتمال از یک توزیع احتمال ثانویه، یاد میشود. از جمله کاربردهای این مفهوم شامل توصیف انتروپی نسبی (shannon) در سیستمهای اطلاعاتی، میزان تصادفیبودن در سریهای زمانی پیوسته و بهره اطلاعاتی در زمانی که به مقایسه با مدلهای آماری استنباطی میپردازیم، میباشد. برخلاف تنوع اطلاعات، این معیار، یک معیار نامتقارن میباشد و در نتیجه نمیتوان آن را به عنوان یک معیار پراکندگی معرفی کرد. به عبارت دیگر، مقدار
برای واگرایی کولبک-لیبلر نشان میدهد که ما میتوانیم انتظار رفتار مشابهی (نه دقیقاً یکسان) از دو توزیع داشته باشیم در حالی که مقدار
برای این معیار نشان میدهد که دو توزیع رفتارهای متضادی دارند.
عبارت واگرایی کولبک-لیبلر در اصل توسط Solomon Kullback و Richard Leibler در سال ۱۹۵۱ به عنوان واگرایی جهتدار بین دو توزیع معرفی گردید؛ هرچند که Kullback خودش نام تمییز اطلاعات را بیشتر ترجیح میداد. در Kullback's historic text, Information Theory and Statistics، این معیار مورد بحث قرار گرفته است.
را بدست بیاوریم میتوانیم واگرایی کولبک-لیبلر این دو توزیع را کمینه کنیم و سپس پرجکشن اطلاعات را بدست بیاوریم.
با اینکه انتروپی نسبی یک فاصله آماری به شمار میرود اما یک متریک نیست. بلکه یک معیار واگرایی است. چرا که این معیار متقارن نیست، یعنی
و همچنین نامساوی مثلث در مورد آن صادق نیست. واگرایی برخلاف متریک که فاصله خطی را تعمیم میدهد، تعمیمی از مربع فاصله است. فرم بینهایتکوچک انتروپی نسبی و به طور خاص هسین آن، یک تنسور متریک میهد.
انتروپی نسبی یک حالت خاص از یک کلاس گستردهتر از واگراییهای آماری به نام واگرایی f و همچنین کلاس واگراییهای برگمن است، و این تنها واگرایی روی توزیعهای احتمالاتی است که در هر دو کلاس قرار میگیرد.
اقتصاد
یک بازیکن را در یک بازی عادلانه با نتیجه متقابلا مجزا در نظر بگیرید. برای مثال یک شخص که در مسابقه اسبسواری که جمع شانسهای رسمی برد یک است سرمایهگذاری میکند. نرخ سود مورد انتظار این سرمایهگذار برابر است با انتروپی نسبی احتمالاتی که وی براساس آنها سرمایهگذاری میکند و مقادیر رسمی شانس برد.
یاد میشود;در حالی که این توصیف با خاصیت نامتقارن بودن فرمول (یعنی واگرایی توزیع
از
با میزان واگرایی توزیع
از
لزوماً برابر نیست) در تعارض است. از این رو برخی مواقع، همانطور که در این مقاله هم از آن یاد شد، از آن به عنوان واگرایی توزیع
از یا نسبت به توزیع
یاد میکنند.
خصوصیات
Arthur Hobson ثابت کرد که معیار واگرایی کولبک-لیبلر تنها معیار تفاوت بین توزیعهای احتمالی است که برخی از خواص مورد نظر را در خود دارد. و نتیجتاً، اطلاعات متقابل نیز تنها معیار وابستگی متقابل میان متغیرهای تصادفی است که یکسری شرایط خاص را دارا میباشد، چرا که آن میتواند از منظر معیار واگرایی مورد نظر نیز تعریف گردد.
در اینجا به برخی از خصوصیات معیار واگرایی کولبک-لیبلر اشاره میکنیم:
انتروپی نسبی همیشه نامنفی است، در نتیجه
که به عنوان نامساوی گیبز شناخته میشود. همچنین داریم
اگر و تنها اگر
.
اثبات: حالت گسسته را درنظر بگیرید. حکم بالا را میتوان با استفاده از نامساوی ینسن و نامساوی جمع لگاریتم اثبات کرد. از آنجایی که لوگاریتم یک تابع محدب است داریم:
نامساوی اول از ینسن نتیجه میشود و نامساوی دوم از تابع احتمالاتی بودن
. همچنین از آنجایی که لوگاریتم اکیدا محدب است، بنابر نابرابری ینسن تساوی زمانی رخ میدهد که
و
. فرض کنید این نسبت برابر با
باشد. در این صورت:
پس تساوی زمانی رخ میدهد که
.
به طور کلی برای واگرایی کولبک-لیبلر کران بالایی وجود ندارد. با این حال، نشان داده شده است که اگر
و
دو توزیع احتمال گسسته باشند که با توزیع یک مقدار گسسته ساخته شدهاند، آنگاه حداکثر مقدار
بهدست میآید.
انتروپی نسبی تقریباً مانند انتروپی شانون برای توزیعهای مستقل جمعی است. اگر
در تئوری اطلاعات، قضیه Kraft–McMillan بیان میکند که هر شمای کدگذاری قابل دیکد کردنی برای کد کردن یک پیام به طوریکه بتوان مقدار xi را از مجموعه تمامی مقادیر ممکن
به صورت مستقیم کدگشایی کند نیاز تا احتمال نمایش هر مقدار را به صورت توزیع احتمال
در نظر گرفته شود که در آن li، طول کد برای xi در واحد بیت میباشد. بنابراین، معیار واگرایی کولبک لیبلر را میتوان به عنوان امید مقدار طول پیام اضافی به ازای هر داده دانست که در صورتی که اگر از یک کد که برای توزیع
بهینه است (توزیع ناصحیح) برای انتقال آن استفاده گردد، باید به صورت اضافی (نسبت به حالتی که از یک کد بهینه برای توزیع صحیح استفاده شود) مخابره گردد.