در نظریه اطلاعات، آنتروپی مشترک معیاری است برای بیان میزان ابهام در مورد مجموعهای از متغیرهای تصادفی.
یک نمودار ون که بهطور نمادین رابطه معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان میدهد.
تعریف
آنتروپی (شانون) مشترک دو متغیر تصادفی و (بر حسب بیت) به صورت زیر تعریف می گردد:
که در آن و نشان دهنده مقدارهایی هستند که متغیرهای تصادفی و اختیار میکنند و نشان دهنده احتمال رخداد همزمان این مقادیر میباشد. همچنین اگر باشد، مقدار برابر صفر تعریف میشود.
برای تعداد بیشتر متغیرهای تصادفی، تعریف به صورت زیر تعمیم می یابد:
که در آن نشان دهنده مقدارهایی هستند که متغیرهای تصادفی اختیار میکنند و نشان دهنده احتمال رخداد همزمان این مقادیر میباشد. همچنین اگر باشد، مقدار برابر صفر تعریف میشود.
خواص
بزرگتر مساوی آنتروپیهای تکی
آنتروپی مشترک مجموعهای از متغیرهای تصادفی بزرگتر یا مساوی تک تک آنتروپیهای هر یک از متغیرهای تصادفی موجود در آن مجموعه میباشد، یعنی:
کوچکتر مساوی مجموع آنتروپیهای تکی
آنتروپی مشترک مجموعهای از متغیرهای تصادفی کوچکتر یا مساوی مجموع آنتروپیهای تکی هر یک از متغیرهای تصادفی موجود در آن مجموعه میباشد. نامساویهای زیر تنها در صورتی تبدیل به تساوی میشوند که و از لحاظ آماری از یکدیگر مستقل باشند.
رابطه با دیگر معیارهای نظریه اطلاعات
آنتروپی مشترک با آنتروپی شرطی به صورت روابط زیر رابطه دارند:
و
همچنین آنتروپی مشترک به صورت زیر دارای رابطه با mutual information میباشد
منابع