قانون بیز در احتمال

شاخص

مترجم: سید مهدی باغی

ویرایش: ابوالفضل ملکی

قانون بیز

محاسبه احتمال پسین (P(Aj|B از احتمالات پیشین داده شده(P(Ai و احتمال شرطی(P(B|Ai پرکاربرد است. قانون عمومی برای چنین محاسباتی که در واقع تنها یک کاربرد ساده از قانون ضرب است، به توماس بیز فقید برمی‌گردد که در قرن هجدهم زندگی می‌کرد. برای بیان آن ما ابتدا به یک نتیجه دیگر نیاز داریم. به یاد داشته باشید که پیشامدهای  A۱, …, Ak در صورتی که هیچ جفتی از آنها خروجی و نتیجه مشترکی نداشته باشند(به عبارتی با هم رخ ندهند)، جدا یا ناسازگار نامیده می‌شوند. همچنین این پیشامدها در صورتی که یک Ai الزاما رخ دهد، جامع و کامل بوده و بنابراین S = A1 ∪ … Ak

قانون احتمال کل

فرض کنید A۱, …, Ak پیشامدهای ناسازگار و جامع هستند. پس برای هر پیشامد دیگر B:

عبارت 1

اثبات:

به این دلیل که Aiها ناسازگار و جامع هستند، اگر B اتفاق بیفتد باید دقیقا توام با یکی از  Aiها رخ دهد. این یعنی (B= P(A۱∩B) ∪…∪ P(Ak∩B ، که در آن پیشامدهای Ai∩B ناسازگار هستند. این تقسیم‌بندی B در شکل زیر تشریح شده است. بنابراین:

 

عبارت 2

مثال۱:

شخصی سه حساب ایمیل متفاوت دارد. اغلب پیغام‌های او، در واقع ۷۰% پیغام‌های او به حساب #۱ می‌آیند، در حالیکه  ۲۰% به حساب #۲ و ۱۰% باقیمانده به حساب #۳ می‌آیند. از پیغام‌های حساب #۱، تنها ۱% تبلیغ(هرزنامه) هستند در حالیکه درصدهای متناظر برای حساب‌های #۲ و #۳ به ترتیب برابر با ۲% و  ۵% می‌باشند. احتمال اینکه یک پیغام انتخاب شده به صورت تصادفی، تبلیغ(هرزنامه) باشد چقدر است؟

به منظور پاسخ به این سوال، با توجه به نمادهای تعریف‌شده در ذیل و درصدهای داده شده داریم:

عبارت 3

حال به سادگی داریم:

P(B)=(0.01)(0.7) + (0.02)(0.2) + (0.05)(0.1) = 0.016

یعنی در بلند مدت، ۱.۶% از پیغام‌های این شخص تبلیغ(هرزنامه) خواهند بود.

قانون بیز

فرض کنید که A۱, A۲, …, Ak یک مجموعه kتایی از پیشامدهای ناسازگار و جامع با احتمالات پیشین (i=1,2,…k ) P(Ai ) باشند. سپس برای هر پیشامد دیگر B که برای آن P(B)>0، احتمال پسین Aj در صورت رخ دادن B برابر است با:

عبارت 4

محاسبه فوق بر مبنای استفاده از قانون ضرب در صورت و قانون احتمال کامل در مخرج است. زیاد شدن پیشامدها، می‌تواند برای تازه‌واردان علم احتمال اندکی دشوار باشد. تا زمانی که پیشامدهای اندکی در کسر وجود دارد، یک نمودار درختی می‌تواند به عنوان مبنای محاسبات احتمالات پسین بدون حتی اشاره مستقیم به قاعده بیز به کار گرفته شود.

مثال۲:

از هر ۱۰۰۰ بزرگسال تنها ۱ نفر مبتلا به یک بیماری نادر است که آزمایش تشخیصی برای آن کشف شده است. این آزمایش به گونه‌ای است که وقتی فرد در واقع به این بیماری مبتلا باشد، نتیجه ۹۹% مواقع مثبت خواهد بود، در حالی که برای یک فرد بدون بیماری تنها ۲% از مواقع آزمایش نتیجه مثبت را نشان خواهد داد. (به عبارتی شاخص “حساسیت(Sensitivity)” آزمایش ۹۹% و شاخص “اختصاصی‌بودن(Specificity)” آن ۹۸% است؛ در مقابل، Sept22, 2012 issue of The Lancet گزارش می‌کند که اولین آزمایش خانگی HIV، “حساسیت” ۹۲% و “اختصاصی‌بودن” ۹۹.۹۸% را دارد). اگر روی یک شخص که به صورت تصادفی انتخاب شده، آزمایش صورت گیرد و نتیجه مثبت باشد، احتمال اینکه این فرد بیمار باشد چقدر است؟ 

برای استفاده از قاعده بیز، فرض کنید  “فرد بیمار است=A۱“، “فرد بیمار نیست=A۲” و “نتیجه آزمایش مثبت است=B”. پس خواهیم داشت: P(A۲)=۰.۹۹۹, P(A۱)=۰.۰۰۱, P(B|A۱)=۰.۹۹, P(B|A۲)=۰.۰۲ و نمودار درختی برای این مساله در شکل زیر آورده شده است.

عبارت 5

 

بنابراین، ۰.۰۲۰۹۷ = ۰.۱۹۹۸ + ۰.۰۰۰۹۹=(P(B که از آن داریم:

عبارت 6

این نتیجه خلاف واقعیت به نظر می‌رسد؛ آزمایش تشخیصی چنان دقیق به نظر می‌رسد که انتظار داریم کسی که نتیجه آزمایش مثبت داشته، به احتمال زیاد مبتلا به این بیماری باشد؛ در حالی که احتمال مشروط محاسبه شده تنها ۰.۰۴۷ است. با این حال، نادربودن بیماری دلالت بر این دارد که بیشترین نتایج آزمایش مثبت ناشی از خطاهاست تا افراد بیمار. در این مثال احتمال داشتن بیماری ۴۷ برابر شده است. (از پیشین ۰.۰۰۱ به پسین ۰.۰۴۷)؛ اما برای رسیدن به افزایش بیشتر در احتمال پسین، یک آزمایش تشخیصی با نرخ خطای بسیار کمتر نسبت به این نوع آزمایش مورد نیاز است.

 

 

رای دادن به این post

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.