حساب کاربری
​
زمان تقریبی مطالعه: 3 دقیقه
لینک کوتاه

آنتروپی مشترک

در نظریه اطلاعات، آنتروپی مشترک معیاری است برای بیان میزان ابهام در مورد مجموعه‌ای از متغیرهای تصادفی.

یک نمودار ون که به‌طور نمادین رابطه معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان می‌دهد.

فهرست

  • ۱ تعریف
  • ۲ خواص
    • ۲.۱ بزرگتر مساوی آنتروپی‌های تکی
    • ۲.۲ کوچکتر مساوی مجموع آنتروپی‌های تکی
  • ۳ رابطه با دیگر معیارهای نظریه اطلاعات
  • ۴ منابع

تعریف

آنتروپی (شانون) مشترک دو متغیر تصادفی X

و Y
(بر حسب بیت) به صورت زیر تعریف می گردد:

H ( X , Y ) = − ∑ x ∑ y P ( x , y ) log 2 ⁡ [ P ( x , y ) ]

که در آن x

و y
نشان دهنده مقدارهایی هستند که متغیرهای تصادفی X
و Y
اختیار می‌کنند و P ( x , y )
نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر P ( x , y ) = 0
باشد، مقدار P ( x , y ) log 2 ⁡ [ P ( x , y ) ]
برابر صفر تعریف می‌شود.

برای تعداد بیشتر متغیرهای تصادفی، تعریف به صورت زیر تعمیم می یابد:

H ( X 1 , . . . , X n ) = − ∑ x 1 . . . ∑ x n P ( x 1 , . . . , x n ) log 2 ⁡ [ P ( x 1 , . . . , x n ) ]

که در آن x 1 , . . . , x n

نشان دهنده مقدارهایی هستند که متغیرهای تصادفی X 1 , . . . , X n
اختیار می‌کنند و P ( x 1 , . . . , x n )
نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر P ( x 1 , . . . , x n ) = 0
باشد، مقدار P ( x 1 , . . . , x n ) log 2 ⁡ [ P ( x 1 , . . . , x n ) ]
برابر صفر تعریف می‌شود.

خواص

بزرگتر مساوی آنتروپی‌های تکی

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی بزرگتر یا مساوی تک تک آنتروپی‌های هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد، یعنی:

H ( X , Y ) ≥ max [ H ( X ) , H ( Y ) ]

H ( X 1 , . . . , X n ) ≥ max [ H ( X 1 ) , . . . , H ( X n ) ]

کوچکتر مساوی مجموع آنتروپی‌های تکی

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی کوچکتر یا مساوی مجموع آنتروپی‌های تکی هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد. نامساوی‌های زیر تنها در صورتی تبدیل به تساوی می‌شوند که X

و Y
از لحاظ آماری از یکدیگر مستقل باشند.

H ( X , Y ) ≤ H ( X ) + H ( Y )

H ( X 1 , . . . , X n ) ≤ H ( X 1 ) + . . . + H ( X n )

رابطه با دیگر معیارهای نظریه اطلاعات

آنتروپی مشترک با آنتروپی شرطی به صورت روابط زیر رابطه دارند:

H ( X | Y ) = H ( Y , X ) − H ( Y )

و

H ( X 1 , … , X n ) = ∑ k = 1 n H ( X k | X k − 1 , … , X 1 )

همچنین آنتروپی مشترک به صورت زیر دارای رابطه با mutual information می‌باشد

I ( X ; Y ) = H ( X ) + H ( Y ) − H ( X , Y )

منابع

  • https://en.wikipedia.org/wiki/Joint_entropy
آخرین نظرات
کلیه حقوق این تارنما متعلق به فرا دانشنامه ویکی بین است.