آنتروپی اطلاعات
مفاهیم | |
چهرههای مهم | |
کلود شانون | |
جوایز مهم | |
جایزه کلود شانون | |
در نظریه اطلاعات، آنتروپی (به انگلیسی: Entropy) یا اِنتروپی، معیاری عددی برای اندازه گرفتن اطلاعات، یا تصادفی بودن یک متغیر تصادفی است. به بیان دقیقتر، آنتروپی یک متغیر تصادفی، متوسط اطلاعات آن است. با داشتن یک متغیر تصادفی گسسته
هرچه آنتروپی یک متغیر تصادفی بیشتر باشد، ابهام ما درباره آن بیشتر است؛ به این معنی که پس از مشاهدهی آن، اطلاعات بهدستآمده از آن بیشتر خواهد بود.
آنتروپی یک منبع اطلاعات، حد پایین نرخ بهترین فشردهسازی بیاتلاف دادههای آن منبع است.
اطلاعات حاصل از مشاهده یک رویداد تصادفی، برابر با منفی لگاریتم احتمال رخ دادن آن تعریف میشود. یک تابع برای اندازه گرفتن اطلاعات یک رویداد تصادفی، ویژگیهایی دارد:
- اینکه اندازهی اطلاعات، نامنفی باشد.
- اطلاعات حاصل از مشاهدهٔ یک رویداد قطعی (یعنی با احتمال برابر با یک) صفر باشد.
- و مهمتر از همه اینکه، اطلاعات حاصل از دو مشاهدهٔ مستقل، برابر با جمع اطلاعات حاصل از مشاهدهٔ تکتک آنها باشد.
میتوان نشان داد تنها تابعی که این سه ویژگی را برمیآورد، منفی لگاریتم احتمال است. اندازۀ اطلاعات با تابع لگاریتم در پایههای مختلف، با هم تنها در یک ضریب ثابت اختلاف دارد. متداولترین پایهٔ لگاریتم در محاسبهٔ اطلاعات، ۲ است که اطلاعات را در واحد بیت محاسبه میکند.
بهطور کلی در علوم و مهندسی، آنتروپی معیاری برای ابهام یا بینظمی است. کلود شانون در مقالهٔ انقلابی خود با نام «A Mathematical Theory of Communication» در ۱۹۴۸، آنتروپی شانون را معرفی کرد و پایهگذار نظریهٔ اطلاعات شد.
آنتروپی در نظریهٔ اطلاعات رابطهٔ تنگاتنگی با مفهوم آنتروپی در ترمودینامیک آماری دارد. این قیاس برخاسته از این است که مقادیر متغیرهای تصادفی، انرژی ریزحالتها را تعیین میکنند و برای همین فرمول گیبز برای آنتروپی به صورت صوری دقیقاً مانند فرمول شانون است. آنتروپی در سایر بخشهای ریاضی همچون ترکیبیات و یادگیری ماشین نیز دارای اهمیت است.
مقدمه
ایدهٔ اصلی نظریه اطلاعات این است که «ارزش اطلاعاتی» منتقل شده از طریق یک پیام به میزان غافلگیر کننده بودن این پیام بستگی دارد. اگر یک رویداد بسیار محتمل رخ بدهد، پیام، اطلاعات بسیار کمی را منتقل میکند. در عین حال اگر یک رویداد بسیار غیر محتمل رخ دهد، پیام، اطلاعات آگاهکنندهتری را منتقل میکند. برای نمونه، دانش اینکه عددی خاص، عدد برندهٔ یک بختآزمایی نیست، اطلاع بسیار کمی در اختیار ما قرار میدهد چرا که هر عدد خاص انتخابی به احتمال زیاد برنده نخواهد شد. ولی دانش اینکه عددی خاص برندهٔ بختآزمایی خواهد بود، ارزش اطلاعاتی زیادی دارد چراکه پیام آن رخداد یک پیامد بسیاد نامحتمل است.
محتوای اطلاعاتی یک رویداد
که در این رابطه
که برابر با عبارت زیر است:
آنتروپی، مقدار مورد انتظار (میانگین) اطلاعات منتقل شده با تشخیص خروجی یک آزمایش تصادفی را به ما میدهد.
تعریف
آنتروپی متغیر تصادفی گسستهٔ
در رابطهٔ بالا
میتوان آنتروپی
همچنین،
آنتروپی متغیر تصادفی
نظریه اندازه
آنتروپی را میتوان به صورت صوری در زبان نظریهٔ اندازه به صورت روبهرو تعریف کرد: اگر
مقدار امید شگفتی
یک افراز almost-
اگر
در نهایت، آنتروپی فضای احتمالاتی برابر است با
مثال
متغیر تصادفی
وقتی
برای
بهطور کلی، توزیع یکنواخت، بیشترین آنتروپی، و یک رویداد قطعی، کمترین آنتروپی را دارا هستند.
توصیف صفات
برای درک مفهوم
- به صورت یکنوا درکاهش مییابد: افزایش در احتمال یک رویداد، اطلاعات حاصل از مشاهدهٔ آن را کاهش میدهد و بلعکس.
- : رویدادهایی که همیشه رخ میدهند، هیچ اطلاعاتی را منتقل نمیکنند.
- : اطلاعات آموخته شده از رویدادهای مستقل برابر است با جمع اطلاعات بدست آمده از هر رویداد.
با فرض داشتن دو رویداد مستقل، اگر رویداد اول
شانون کشف کرد که یک انتخاب مناسب برای
در واقع تنها مقادیر ممکن برای
فشردهسازی دادهها
آنتروپی یک منبع اطلاعات، حد پایین متوسط بهترین نرخ فشردهسازی بدون اتلاف دادههای آن منبع است. به بیان دقیقتر هیچ روش فشردهسازی ای وجود ندارد که بهطور میانگین مقدار متغیر تصادفی
آنتروپی به عنوان معیاری از تنوع
آنتروپی یکی از راههای متعدد سنجش تنوع زیستی است و از آن به صورت شاخص شانون استفاده میشود. شاخص تنوع یک معیار کمی آماری برای بررسی انواع گوناگون موجود در یک مجموعهٔ داده است.
کاربرد در یادگیری ماشین
روشهای یادگیری ماشین به طور عمده مبتنی بر آمار و همچنین نظریهٔ اطلاعات است. به طور کلی، آنتروپی یک معیار برای عدم قطعیت است و هدف یادگیری ماشین کاهش عدم قطعیت است.
الگوریتمهای یادگیری درخت تصمیم از آنتروپی نسبی استفاده میکنند تا قوانین تصمیمگیری حاکم بر دادهها در هر گره را پیدا کند. کسب اطلاعات در درختهای تصمیم
مدلهای استنباط بیزی اغلب با استفاده از اصل حداکثر آنتروپی، توزیع احتمال پیشین را بدست میآورند. منطق این روش این است که توزیعی که بهترین بیان از دانش ما از حالت کنونی یک سامانه را دارد، همانی است که بیشترین آنتروپی را دارد بنابراین برای توزیع پیشین بودن مناسب است.
طبقهبندی در یادگیری ماشین که توسط رگرسیون لجستیک یا شبکههای عصبی مصنوعی پیادهسازی میشود، اغلب از از یک تابع زیان استاندارد، به نام زیان آنتروپی متقاطع، استفاده میکند که میانگین آنتروپی متقاطع بین واقعیت و توزیعهای پیشبینی شده را کمینه میکند. به طور کلی، آنتروپی متقاطع یک معیار برای محاسبهٔ تفاوت میان ۲ مجموعهٔ دادهها است، مانند واگرایی کولبک-لیبلر یا همان آنتروپی نسبی.
جستارهای وابسته
منابع
- ↑ Shannon, C. E. (1948-10). "A mathematical theory of communication". The Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. ISSN 0005-8580.
- ↑ Entropy (for data science) Clearly Explained!!!, retrieved 2022-12-19
- ↑ «David MacKay: Information Theory, Inference, and Learning Algorithms: The Book». www.inference.org.uk. دریافتشده در ۲۰۲۲-۱۲-۱۹.
- ↑ Entropy in nLab
- ↑ Carter، Tom (مارس ۲۰۱۴). An introduction to information theory and entropy [مقدمهای بر نظریهٔ اطلاعات و آنتروپی] (PDF).
- ↑ Chakrabarti, C. G., and Indranil Chakrabarty. "Shannon entropy: axiomatic characterization and application." International Journal of Mathematics and Mathematical Sciences 2005.17 (2005): 2847-2854 url
- ↑ Spellerberg, Ian F.; Fedor, Peter J. (2003-05). "A tribute to Claude Shannon (1916-2001) and a plea for more rigorous use of species richness, species diversity and the 'Shannon-Wiener' Index: On species richness and diversity". Global Ecology and Biogeography (به انگلیسی). 12 (3): 177–179. doi:10.1046/j.1466-822X.2003.00015.x.
- ↑ Batra, Mridula; Agrawal, Rashmi (2018). Panigrahi, Bijaya Ketan; Hoda, M. N.; Sharma, Vinod; Goel, Shivendra (eds.). "Comparative Analysis of Decision Tree Algorithms". Nature Inspired Computing (به انگلیسی). Singapore: Springer: 31–36. doi:10.1007/978-981-10-6747-1_4. ISBN 978-981-10-6747-1.
- ↑ Jaynes, Edwin T. (1968-09). "Prior Probabilities". IEEE Transactions on Systems Science and Cybernetics. 4 (3): 227–241. doi:10.1109/TSSC.1968.300117. ISSN 2168-2887.
- ↑ "The Cross‐Entropy Method: A Unified Approach to Combinatorial Optimisation, Monte‐Carlo Simulation and Machine Learning". Kybernetes. 34 (6): 903–903. 2005-07-01. doi:10.1108/03684920510595562. ISSN 0368-492X.
- Elements of Information Theory (انگلیسی)