در نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل بین دو متغیر تصادفی معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر میباشد. به بیان دیگر در حقیقت این معیار «میزان اطلاعات» به دست آمده (مثلاً در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان میدهد. مفهوم اطلاعات متقابل ذاتاً مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان میدهد، میباشد.
یک نمودار ون که به طور نمادین رابطهٔ معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان میدهد. رنگ بنفش در شکل اطلاعات متقابل را نشان میدهد.
اطلاعات متقابل میزان شباهت بین توزیع مشترک و ضرب احتمالهای حاشیه ای یعنی را مشخص میسازد.
تعریف
اطلاعات متقابل بین دو متغیر تصادفی و را به صورت زیر میتوان تعریف نمود:
که در رابطه فوق تابع توزیع احتمال مشترک و ، و و تابعهای توزیع احتمال حاشیه ای به ترتیب و میباشند.
در صورتی که متغیرهای تصادفی پیوسته باشند، رابطه به صورت زیر بر اساس انتگرال معین دوگانه تعریف میگردد:
که در رابطهٔ فوق اکنون تابع چگالی احتمال مشترک و ، و و تابعهای چگالی احتمال حاشیه ای به ترتیب و میباشند.
اگر لگاریتم در پایهٔ ۲ استفاده شود، واحد اطلاعات متقابل بیت خواهد بود.
اطلاعات متقابل میزان اطلاعاتی که بین و مشترک است را انداره میگیرد. اطلاعات متقابل نشان میدهد تا چه میزان دانستن یکی از این متغیرها میزان ابهام ما در مورد دیگری را کاهش میدهد. مثلاً اگر و مستقل باشند، در این صورت دانستن هیچ اطلاعاتی در مورد به ما نمیدهد (و بر عکس)، بنا بر این اطلاعات متقابلشان صفر است. از طرف دیگر، اگر یک تابع قطعی (deterministic) از و یک تابع قطعی (deterministic) از باشد، در این صورت تمام اطلاعاتی که با خود حمل میکند، در هم هست، دانستن مقدار را مشخص میکند و بر عکس. در نتیجه در این حالت اطلاعات متقابل برابر میزان ابهام در (یا )، یعنی آنتروپی (یا ) میباشد.
اطلاعات متقابل میزان وابستگی را بر اساس توزیع مشترک و ، در مقایسه با توزیع مشترک و تحت فرض استقلال، به دست میآورد. اطلاعات متقابل در نتیجه وابستگی را در معنای زیر اندازهگیری میکند:
اگر و فقط اگر و متغیرهای تصادفی مستقل باشند. بررسی این حقیقت از یک سمت آسان است: اگر و مستقل باشند، در این صورت و در نتیجه:
در ضمن لازم است ذکر شود که اطلاعات متقابل نامنفی و متقارن میباشد.
رابطه با دیگر مقادیر
اطلاعات متقابل معادلاً تحت روابط زیر قابل بیان میباشد:
که در روابط فوق و آنتروپیهای حاشیه ای، و آنتروپیهای شرطی میباشند و آنتروپی مشترک و میباشد. به شباهت روابط با روابط اجتماع، اشتراک و اختلاف دو مجموعه توجه کنید.
به کمک نامساوی Jensen روی تعریف اطلاعات متقابل میتوان نشان داد نامنفی است، و در نتیجه، . اکنون ما در اینجا اثبات رابطه را ارائه میدهیم:
اثبات تساویهای دیگر که در بالا آمدهاست، به طور مشابه انجام میپذیرد.
اطلاعات متقابل همچنین بر اساس انحراف Kullback-Leibler به شکل زیر قابل بیان میباشد:
اطلاعات متقابل شرطی
گاهی اوقات لازم است اطلاعات متقابل دو متغیر تصادفی به شرط یک متغیر تصادفی سوم بیان گردد.
که رابطه فوق را میتوان به صورت زیر سادهتر نوشت:
شرط روی یک متغیر تصادفی سوم میتواند اطلاعات متقابل را کاهش یا افزایش دهد، ولی در هر حال رابطه زیر همیشه صادق است:
منابع