آنتروپی تفاضلی
دیفرانسیل آنتروپی (همچنین به عنوان مستمر آنتروپی) یک مفهوم در نظریه اطلاعات که شروع به تلاش شانون به گسترش ایده (Shannon) آنتروپی اندازهگیری دمای هلندی، بین نژادهای مختلف از یک متغیر تصادفی بهطور مداوم احتمال توزیع است. متأسفانه شانون نمی مشتق این فرمول و نه فقط فرض آن را درست مستمر آنالوگ آنتروپی گسسته است. واقعی نسخه مداوم آنتروپی گسسته است و محدود کردن تراکم نقاط گسسته (LDDP). دیفرانسیل آنتروپی (در اینجا توضیح داده شدهاست) مواجه میشوند که معمولاً در ادبیات، اما از آن است که محدود مورد LDDP و یکی که از دست میدهد و اساسی آن ارتباط با گسسته آنتروپی.
تعریف
اجازه X یک متغیر تصادفی با یک چگالی احتمال تابع f که پشتیبانی یک مجموعه
- .
برای توزیعهای احتمالی است که نمیباید صریح و روشن تابع چگالی بیان اما باید صریح و روشن quantile تابع بیان Q(p) h(Q) را میتوان تعریف شده در شرایط مشتق از Q(p) یعنی quantile تابع چگالی Q'(p) به عنوان
- .
به عنوان با آن گسسته آنالوگ واحد دیفرانسیل آنتروپی بستگی به پایه لگاریتم است که معمولاً ۲ (برای مثال واحدهای بیت). دیدن لگاریتمی واحد برای لگاریتم گرفته در پایگاههای مختلف. مربوط به مفاهیم مشترک بین مشروط دیفرانسیل آنتروپی و آنتروپی نسبی تعریف شده در یک مد مشابه. بر خلاف گسسته آنالوگ دیفرانسیل آنتروپی یک افست که بستگی به واحد مورد استفاده برای اندازهگیری X. به عنوان مثال دیفرانسیل آنتروپی یک مقدار اندازهگیری میلیمتر خواهد بود و ورود به سیستم(۱۰۰۰) بیش از همان مقدار اندازهگیری در متر؛ بعد مقدار باید دیفرانسیل آنتروپی از ورود به سیستم(۱۰۰۰) بیش از همان مقدار توسط ۱۰۰۰ تقسیم میشود.
یکی باید مراقبت در تلاش برای اعمال خواص آنتروپی گسسته به دیفرانسیل آنتروپی پس از چگالی احتمال توابع را میتوان بزرگتر از ۱ است. به عنوان مثال ,(۰٬۱/۲) منفی دیفرانسیل آنتروپی
- .
بنابراین دیفرانسیل آنتروپی میکند به اشتراک گذاری تمام خواص آنتروپی گسسته است.
توجه داشته باشید که پیوسته متقابل اطلاعات من(X;Y) تمایز حفظ آن اهمیت اساسی به عنوان یک اندازهگیری از اطلاعات گسسته از آن است که در واقع حد گسسته متقابل اطلاعات از پارتیشنهای X و Y به عنوان این پارتیشن تبدیل ظریف و ظریف است؛ بنابراین از آن است که ناوردا تحت غیر خطی homeomorphisms (پیوسته و منحصر به فرد invertible نقشه) مادر از جمله خطی تحولات X و Yو هنوز هم نشان دهنده مقدار گسسته اطلاعاتی که منتقل میشود بیش از یک کانال است که اذعان میکند یک فضای مداوم از ارزشها.
به صورت مستقیم آنالوگ آنتروپی گسسته تمدید مستمر فضای ببینید محدود کردن تراکم نقاط گسستهاست.
خواص آنتروپی دیفرانسیل
- برای تراکم f و gرا Kullback–Leibler واگرایی D(f||g) بزرگتر یا مساوی ۰ با برابری تنها در صورتی f = g تقریباً در همه جا. به طور مشابه برای دو متغیر تصادفی X و Yهای من(X;Y) ≥ ۰ و h(X|Y) ≤ h(X) برابری با اگر و تنها اگر X و Y هستند و مستقل است.
- قاعده زنجیری برای دیفرانسیل دارای آنتروپی به عنوان در مورد گسسته
- .
- دیفرانسیل آنتروپی ترجمه ناوردا یعنی h(X + c) = h(X) به صورت ثابت cاست.
- دیفرانسیل آنتروپی به طور کلی نمی ناوردا تحت دلخواه invertible نقشه. به طور خاص برای ثابت یکدوست ثانیه(aX) = h(X) + log|a|. برای یک بردار با ارزش متغیر تصادفی X و یک ماتریس یکدوست ثانیه(یک X) = h(X) + log|det(A)|.
- در کل برای یک تغییر و تحول از یک بردار تصادفی به یکی دیگر از تصادفی وکتور با همان ابعاد Y = m(X) مربوط به آنتروپی مربوط از طریق
- که در آن است ژاکوبین تحول m. فوق نابرابری میشود برابری اگر تبدیل bijection. هنگامی که m سفت و سخت چرخش ترجمه یا ترکیبی از آن ژاکوبین تعیین کننده است که همیشه ۱ و h(Y) = h(X).
- اگر یک بردار تصادفی X در R دارای میانگین صفر و کوواریانس ماتریس Kزدن برابری با اگر و تنها اگر X است که بهطور مشترک گاوسی (نگاه کنید به زیر).
اما دیفرانسیل آنتروپی ندارد دیگر خواص مطلوب:
- آن است که ناوردا تحت تغییر متغیر است و بنابراین مفید با بعد متغیر است.
- آن میتواند منفی باشد.
اصلاح دیفرانسیل آنتروپی که آدرس این اشکالاتی است که اطلاعات نسبی آنتروپی, همچنین شناخته شده به عنوان Kullback–Leibler واگراییکه شامل یک یکسان اندازهگیری فاکتور (نگاه کنید به محدود کردن تراکم نقاط گسسته).
حداکثر در توزیع نرمال
با یک توزیع نرمال دیفرانسیل آنتروپی حداکثر برای یک داده شدند. به دنبال اثبات این است که یک Gaussian متغیر است و بزرگترین آنتروپی در میان تمام متغیرهای تصادفی برابر واریانس یا معادل آن است که حداکثر آنتروپی توزیع تحت محدودیت میانگین و واریانس است گاوسی.
اجازه دهید g(x) یک Gaussian PDF با میانگین μ و واریانس σ و f(x) خودسرانه PDF با همان واریانس است. پس از دیفرانسیل آنتروپی ترجمه ناوردا ما میتوانیم فرض کنیم که f(x) به همین معنی از μ به عنوان g(x).
در نظر Kullback–Leibler واگرایی بین این دو توزیع
در حال حاضر توجه داشته باشید که
چرا که نتیجه بستگی ندارد f(x) دیگر از طریق واریانس. ترکیب این دو نتیجه بازده
با برابری هنگامی که g(x) = f(x) پس از خواص Kullback–Leibler واگرایی.
این نتیجه نیز ممکن است نشان داده شود با استفاده از variational حساب دیفرانسیل و انتگرال. یک تابع لاگرانژی با دو لاگرانژ ممکن است به عنوان تعریف شده:
که در آن g(x) است که برخی از عملکرد با میانگین μ. زمانی که آنتروپی g(x) است که در حداکثر و محدودیت معادلات که شامل وضعیت عادی
پس از این باید نگه دارید برای هر کوچک و δg(x) این واژه در داخل پرانتز باید صفر و برای حل g(x) بازده:
با استفاده از محدودیت معادلات به حل برای λ0 و λ بازده توزیع نرمال:
مثال: توزیع نمایی
اجازه X یک توزیع نمایی متغیر تصادفی با پارامتر λ است که با چگالی احتمال تابع
آن دیفرانسیل آنتروپی است و سپس
در اینجا
دیفرانسیل آنتروپی برای توزیعهای مختلف
در جدول زیر
Distribution Name | Probability density function (pdf) | Entropy in nats | Support |
---|---|---|---|
Uniform | |||
Normal | |||
Exponential | |||
Rayleigh | |||
Beta | |||
Cauchy | |||
Chi | |||
Chi-squared | |||
Erlang | |||
F | |||
Gamma | |||
Laplace | |||
Logistic | |||
Lognormal | |||
Maxwell–Boltzmann | |||
Generalized normal | |||
Pareto | |||
Student's t | |||
Triangular | |||
Weibull | |||
Multivariate normal |
(بسیاری از دیفرانسیل آنتروپی هستند.
انواع
همانطور که در بالا توضیح داده دیفرانسیل آنتروپی میکند به اشتراک گذاری تمام خواص آنتروپی گسسته است. برای مثال دیفرانسیل آنتروپی میتواند منفی نیز آن است که ناوردا تحت مستمر هماهنگ تحولات است. ادوین تامپسون Jaynes نشان داد در این واقعیت است که بیان بالا درست نیست حد بیان به صورت یک مجموعه متناهی از احتمالات است.
اصلاح دیفرانسیل آنتروپی میافزاید: یکسان اندازهگیری عامل برای اصلاح این (نگاه کنید به محدود کردن تراکم نقاط گسسته). اگر m(x) است که بیشتر محدود به یک چگالی احتمال در نتیجه مفهوم است که به نام آنتروپی نسبی در نظریه اطلاعات:
تعریف دیفرانسیل آنتروپی بالا را میتوان به دست آمده توسط پارتیشنبندی طیف وسیعی از X به سطل از ظهر ثانیه با نمونه همراه نقاط ih در داخل مخازن به صورت X ریمان و انتگرال. این را میدهد تدریجی نسخه از Xتعریف شده توسط Xh = ih اگر ih ≤ X ≤ (i+1)ثانیه. سپس آنتروپی از Xثانیه است
دوره اول در سمت راست تخمین دیفرانسیل آنتروپی در حالی که دوره دوم حدود −log(h). توجه داشته باشید که این روش نشان میدهد که آنتروپی در گسسته حس مداوم از یک متغیر تصادفی باید ∞.
جستارهای وابسته
- آنتروپی اطلاعات
- نظریه اطلاعات
- محدود کردن تراکم نقاط گسسته
- Self-اطلاعات
- Kullback–Leibler واگرایی
- برآورد آنتروپی
منابع
- Thomas M. Cover، Joy A. Thomas. Elements of Information Theory New York: Wiley, 1991. شابک ۹۷۸−۰۴۷۱۲۴۱۹۵۹
پیوند به بیرون
- Hazewinkel, Michiel, ed. (2001), "Differential entropy", Encyclopaedia of Mathematics, Springer, ISBN 978-1-55608-010-4
- Differential entropy at PlanetMath.