حساب کاربری
​
زمان تقریبی مطالعه: 8 دقیقه
لینک کوتاه

توزیع هندسی

توزیع هندسی (به انگلیسی: Geometric distribution) توزیعی است گسسته که بیانگر احتمال اولین پیروزی پس از k-1 شکست در فرایند برنولی می‌باشد

هندسی
تابع جرم احتمال
تابع توزیع تجمعی
پارامترها 0 < p ≤ 1

احتمال پیروزی (حقیقی)
0 < p ≤ 1
success probability (real)
تکیه‌گاه k ∈ { 1 , 2 , 3 , … }
k ∈ { 0 , 1 , 2 , 3 , … }
تابع جرم احتمال ( 1 − p ) k − 1 p
( 1 − p ) k p
تابع توزیع تجمعی 1 − ( 1 − p ) k
1 − ( 1 − p ) k + 1
میانگین 1 p
1 − p p
میانه ⌈ − log ⁡ ( 2 ) log ⁡ ( 1 − p ) ⌉
(در صورتی که − log ⁡ ( 2 ) / log ⁡ ( 1 − p )
عددی طبیعی باشد میانه یکتا نیست.)
مُد 1 0
واریانس 1 − p p 2
1 − p p 2
چولگی 2 − p 1 − p
2 − p 1 − p
کشیدگی 6 + p 2 1 − p
6 + p 2 1 − p
آنتروپی − 1 − p p ln ⁡ ( 1 − p ) − ln ⁡ p
تابع مولد گشتاور p e t 1 − ( 1 − p ) e t
p 1 − ( 1 − p ) e t
تابع مشخصه p e i t 1 − ( 1 − p ) e i t
p 1 − ( 1 − p ) e i t
P X ( k ) = P { X = k } = ( 1 − p ) k − 1 p

که در آن p احتمال پیروزی در یک دفعه است.


فهرست

  • ۱ متغیر تصادفی هندسی
  • ۲ اثبات
  • ۳ چند مثال ساده
  • ۴ امید ریاضی متغیر تصادفی هندسی
    • ۴.۱ اثبات
  • ۵ واریانس متغیر تصادفی هندسی
    • ۵.۱ اثبات
  • ۶ متغیر تصادفی هندسی بدون حافظه است !
  • ۷ امید ریاضی متغیر تصادفی هندسی
    • ۷.۱ اثبات
  • ۸ واریانس متغیر تصادفی هندسی
    • ۸.۱ اثبات
  • ۹ منابع

متغیر تصادفی هندسی

فرض کنید آزمایش‌های مستقلی با احتمال موفقیت p، آن قدر تکرار می‌شود تا یک موفقیت به دست آید. اگر X تعداد آزمایش‌های لازم باشد، آنگاه:

P { X = n } = ( 1 − p ) n − 1 p n = 1 , 2 , 3 …

اثبات

می دانیم شرط لازم و کافی برای X=n آن است که ابتدا، n-1 آزمایش شکست و n اُمین آزمایش موفقیت باشد. از آنجا که برآمدهای متوالی آزمایش‌ها بنا به فرض مستقل هستند داریم  :

p X ( k ) = P { X = n } = p ( 1 − p ) n − 1

هر متغیر تصادفی که تابع جرم احتمال به صورت بالا باشد را یک متغیر (فرایند) تصادفی هندسی با پارامتر p می نامیم.

∑ n = 1 ∞ Pr { X = n } = p ∑ n = 1 ∞ ( 1 − p ) n − 1 = p 1 − ( 1 − p ) = 1

در نتیجه با احتمال ۱، یک موفقیت بالاخره اتفاق می افتد. هر متغیر تصادفی که تابع جرم احتمال به صورت بالا باشد را یک متغیر تصادفی هندسی با پارامتر p می‌نامیم.

چند مثال ساده

  • فرض کنیم می خواهیم رمز عبور 8 کاراکتری یک کامپیوتر را حدس بزنیم. چند مرتبه باید این کار را تکرار کنیم؟
  • فرض کنیم یک دارو به احتمال p سبب درمان شود، دارو روی چندمین بیمار مؤثر واقع می‌شود؟
  • فرض کنیم احتمال برد یک تیم p باشد، چند مرتبه این تیم باید بازی کند تا یک بازی را ببرد ؟

امید ریاضی متغیر تصادفی هندسی

قصیه: امید ریاضی متغیر تصادفی هندسی با پارامتر p برابر است با

E [ X ] = 1 p

اثبات

می دانیم p X ( k ) = ( 1 − p ) k − 1 p

بنابراین برای محاسبه امید ریاضی می‌بایست عبارت زیر را محاسبه کنیم

E [ X ] = ∑ x x p X ( x )

پس با ترکیب دو رابطه ی بالا برای متغیر تصادفی هندسی داریم

E [ X ] = ∑ k = 0 ∞ k ( 1 − p ) k − 1 p

حال اگر فرض کنیم

F ( p ) = ∑ k = 0 ∞ ( 1 − p ) k = 1 1 − ( 1 − p ) = 1 p

داریم

d F ( p ) d p = − ∑ k = 0 ∞ k ( 1 − p ) k − 1 = − 1 p 2

در نتیجه

E [ X ] = p 1 p 2 = 1 p

واریانس متغیر تصادفی هندسی

قضیه: واریانس متغیر تصادفی هندسی با پارامتر p برابر است با

var [ X ] = 1 − p p 2

اثبات

فرض می کنیم پیشامد A = { X = 1 }

و پیشامد B = { X > 1 }
با توجه به اینکه A و B افرازهای فضای نمونه ی ما هستند، داریم

E [ X 2 ] = E [ X 2 | A ] P ( A ) + E [ X 2 | B ] P ( B )

می‌دانیم

E [ X 2 | A ] = E [ X 2 | X = 1 ] = 1


و

E [ X 2 | B ] = E [ X 2 | X > 1 ] = E [ ( X + 1 ) 2 ] = E [ X 2 + 2 X + 1 ] = E [ X 2 ] + 2 p + 1

بنابراین

E [ X 2 ] = 1 × p + ( E [ X 2 ] + 2 p + 1 ) ( 1 − p )


E [ X 2 ] = 2 − p p 2


در نهایت از آنجا که var [ X ] = E [ X 2 ] − ( E [ X ] ) 2

داریم

var [ X ] = 2 − p p 2 − 1 p 2 = 1 − p p 2

متغیر تصادفی هندسی بدون حافظه است !

فرض کنیم می دانیم تعداد دفعاتی که سکه‌ای را اندخته ایم از n بیشتر است، احتمال اینکه سکه را بیش از n+m دفعه بی اندازیم تا شیر بیاید چقدر است ؟

P ( X > n + m | X > n ) = P ( ( X > n + m ) ∩ ( X > m ) ) P ( X > n ) = P ( X > n + m ) P ( X > n ) = ( 1 − p ) n + m ( 1 − p ) n = ( 1 − p ) m


پس تنها m بار پرتاب بعدی اهمیت دارد و n بار پرتاب اولیه بی‌ارزش می‌شود.

همچنین می‌توان ثابت کرد اگر یک متغیر تصادفی گسسته بی حافظه باشد، هندسی است. (عکس قضیه)


امید ریاضی متغیر تصادفی هندسی

امید ریاضی متغیر تصادفی هندسی با پارامتر p برابر است با:

E [ X ] = 1 p

اثبات

می‌دانیم:

P X ( k ) = ( 1 − p ) k − 1 p

و:

E [ X ] = ∑ x x P X ( x )

پس با ترکیب دو رابطهٔ بالا برای متغیر تصادفی هندسی داریم:

E [ X ] = ∑ k = 0 ∞ k ( 1 − p ) k − 1 p

حال اگر فرض کنیم:

F ( p ) = ∑ k = 0 ∞ ( 1 − p ) k − 1 = 1 1 − ( 1 − p ) = 1 p

داریم:

d F ( p ) d p = − ∑ k = 0 ∞ k ( 1 − p ) k − 1 = − 1 p 2

در نتیجه:

E [ X ] = p 1 p 2 = 1 p

واریانس متغیر تصادفی هندسی

واریانس متغیر تصادفی هندسی با پارامتر p برابر است با:

V a r [ X ] = 1 − p p 2

اثبات

فرض می‌کنیم پیشامد A = { X = 1 }

و پیشامد B = { X > 1 }
 :

با توجه به اینکه A و B افرازهای فضای نمونه ی ما هستند، داریم:

E [ X ] = E [ X | A ] P ( A ) + E [ X | B ] P ( B )

E [ X 2 ] = E [ X 2 | A ] P ( A ) + E [ X 2 | B ] P ( B )

در نتیجه:

E [ X 2 | A ] = E [ X 2 | X = 1 ] = 1

و:

E [ X 2 | B ] = E [ X 2 | X > 1 ] = E [ ( X + 1 ) 2 ] = E [ X 2 + 2 X + 1 ] = E [ X 2 ] + 2 p + 1

پس:

E [ X 2 ] = 1 ∗ p + ( E [ X 2 + 2 p + 1 ) ( 1 − p )

E [ X 2 ] = 2 − p p 2

در نهایت از آنجا که می‌دانیم V a r [ X ] = E [ X 2 ] − ( E [ X ] ) 2

 :

V a r [ X ] = 2 − p p 2 − 1 p 2 = 1 − p p 2



منابع

  1. ↑ «توزیع هندسی» [آمار] هم‌ارزِ «geometric distribution»؛ منبع: گروه واژه‌گزینی. جواد میرشکاری، ویراستار. دفتر یازدهم. فرهنگ واژه‌های مصوب فرهنگستان. تهران: انتشارات فرهنگستان زبان و ادب فارسی. شابک ۹۷۸-۶۰۰-۶۱۴۳-۴۵-۳ (ذیل سرواژهٔ توزیع هندسی)
  2. ↑ A First Course In Probability 8 Edition-Sheldon Ross
  • Wikipedia contributors, "Geometric distribution," Wikipedia, The Free Encyclopedia, http://en.wikipedia.org/w/index.php?title=Geometric_distribution&oldid=340890918 (accessed January 30, 2010).
  • Introduction to probabilities models by Sheldon M.Ross
  • A First Course In Probability 8Edition-Sheldon Ross
  • Athanasios Papoulis-probability and statistics
آخرین نظرات
کلیه حقوق این تارنما متعلق به فرا دانشنامه ویکی بین است.