قضیه بیز
قضیه بیز (به انگلیسی: Bayes' theorem) روشی برای دستهبندی پدیدهها، بر پایه احتمال وقوع یا عدم وقوع یک پدیده است و در نظریهٔ احتمالات با اهمیت و پرکاربرد است. اگر برای فضای نمونهای مفروضی بتوانیم چنان افرازی انتخاب کنیم که با دانستن اینکه کدامیک از پیشامدهای افراز شده رخ دادهاست، بخش مهمی از عدم قطعیت تقلیل مییابد.
این قضیه از آن جهت مفید است که میتوان از طریق آن، احتمال یک پیشامد را با مشروط کردن نسبت به وقوع یا عدم وقوع یک پیشامد دیگر محاسبه کرد. در بسیاری از حالتها، محاسبهٔ احتمال یک پیشامد به صورت مستقیم کاری دشوار است. با استفاده از این قضیه و مشروط کردن پیشامد مورد نظر نسبت به پیشامد دیگر، میتوان احتمال مورد نظر را محاسبه کرد.
این رابطه به خاطر بزرگداشت توماس بیز فیلسوف انگلیسی به نام فرمول بیز معروف است.
معادلهٔ اصلی
فرض میکنیم
برهان
طبق تعریف احتمال شرطی داریم
اگر A و B دو پیشامد مفروض باشند، میتوان پیشامد A را به صورت زیر در نظر بگیریم:
زیرا نقطهای که در
این رابطه بیان میدارد که احتمال به وقوع پیوستن پیشامد
از این عبارت این گونه میتوان استنباط کرد که حتماً یکی از پیشامدهای
از اینجا میتوان نوشت:
این رابطه بیان میدارد که چگونه میتوان
یادگیری ماشینی به کمک نظریه بیز
برای نگرش بیزی به یادگیری ماشین (و یا هر فرایند دیگر) میباید نخست:
- دانش موجود دربارهٔ موضوع را به صورت احتمالاتی فرموله کنیم:برای اینکار باید مقادیر کیفی دانش را به صورت توزیع احتمال، فرضیات استقلال و غیره مدل کرد. این مدل دارای پارامترهای ناشناختهای خواهد بود که برای هر یک از مقادیر ناشناخته، توزیع احتمال اولیهای در نظر گرفته میشود که بازگوکننده باور ما به محتمل بودن هر یک از این مقادیر بدون دیدن دادهاست.
- با جمعآوری داده و مشاهدهٔ آن، مقدار توزیع احتمال ثانویه را محاسبه میکنیم
- با استفاده از این احتمال ثانویه:
- به یک نتیجهگیری در مورد عدم قطعیت میرسیم
- با میانگینگیری روی مقادیر احتمال ثانویه پیشبینی انجام میدهیم
- برای کاهش خطای ثانویه مورد انتظار تصمیمگیری میکنیم
تئوری بیز در یادگیری ماشین
در یادگیری ماشین معمولاً در فضای فرضیه
سنگ بنای یادگیری بیزی را تئوری بیز تشکیل میدهد. این تئوری امکان محاسبه احتمال ثانویه را بر مبنای احتمالات اولیه میدهد:
همانطور که مشاهده میشود با افزایش
تعریف مفاهیم اولیه
فرض کنید که فضای فرضیه
- : احتمال پیشین (prior probablity) که فرضیهقبل از مشاهده داده آموزشیداشتهاست. اگر چنین احتمالی موجود نباشد میتوان به تمامی فرضیهها احتمال یکسانی نسبت داد.
- : احتمال مشاهده داده آموزشی.
- : درست نمایی (likelihood) یا احتمال مشاهده داده آموزشیبه فرض آنکه فرضیهصادق باشد.
- : احتمال پسین (posterior probablity) یا احتمال فرضیهبه شرط مشاهده داده آموزشی.
توجه شود که احتمال پیشین
روشهای یادگیری بیزی ماشینی
روشهای بیزی فرضیههایی ارائه میدهند که قادر به پیشبینی احتمالی هستند (مثل بیمار به احتمال ۹۳٪ بهبود مییابد) مثالهای جدید را میتوان با ترکیب وزنی چندین فرضیه دستهبندی نمود. حتی در مواردی که روشهای بیزی قابل محاسبه نباشند، میتوان از آنها به عنوان معیاری برای ارزیابی روشهای دیگر استفاده کرد تعدادی از روشهای یادگیری ماشینی بیزی شامل موارد زیر است:
مثال
در یک مسئله تشخیص بیماری با دو فرضیه روبرو هستیم:
- بیمار دارای سرطان است.
- بیمار سالم است.
دادهای آزمایشگاهی نشان میدهد که ۰٫۰۰۸ جمعیت دارای این بیماری هستند و بعلت نادقیق بودن تستهای آزمایشگاهی نتایج آن به صورت زیر است:
- در ۹۸٪ مواقعی که شخص واقعاً بیمار است نتیجه صحیح مثبت حاصل میشود.
- در ۹۷٪ مواقعی که بیمار سالم است نتیجه صحیح منفی حاصل میشود.
حال اگر بیمار جدیدی مشاهده شود که جواب آزمایشگاه مثبت باشد، آیا باید بیمار را مبتلا به سرطان بدانیم؟ احتمال ابتلای بیمار به سرطان عبارت است از:
احتمال نداشتن سرطان عبارت است از:
- hmap=~cancer
جستارهای وابسته
منابع
- دگروت-اسکرویش (۱۳۸۵)، احتمال و آمار جلد اول، ترجمهٔ دکتر عینالله پاشا، ص. ۹۸، شابک ۹۷۸-۹۶۴-۳۹۵-۸۷۱-۸
sheldon ross sixth edition، A first course of probability