الإحصاء البيزي والذي سمي نسبة الى العالم الإحصائي الأنجليزي توماس بيز (Thomas Bayes) ، الذي عاش خلال الفترة (1701-1761م). هو من قام بصياغة حالة خاصة من النظرية المشهورة والتي تحمل إسمه وهي نظرية بيز ( Bayes’ theorem) رغم أنها لم تنشر في حياته وإنما نشرت بعد وفاته بواسطة ريتشارد برايس (Richard Price) . الاستدلال البيزي هو طريقة استدلال إحصائي تستخدم نظرية بيز لبناء النماذج الإحصائية وإستنتاج الأستدلالات الإحصائية حول معالِم (parameters) العينة أو المجتمع الإحصائي. نظرية بيز تكتب كما يلي:
\begin{equation}
P(A|B)=\frac{P(B|A)P(A)}{P(B)}
\end{equation}
وهي تعني إحتمال وقوع الحادث $A$ بشرط وقوع الحادث $B$. بإستخدام نظرية بيز نستطيع كتابة نموج بيز لمجموعة من المتغيرات العشوائية $x_{1},x_{2},…,x_{n}
$ والتي تتبع توزيع إحتمالي دالتة الإحتمالية $f(x_{i};\theta)$. حيث أن $\theta$ معلمة أو مجموعة معالم (parameters). عندئذ يمكن كتابة النموذج البيزي والذي يمثل بالتوزيع اللاحق (posterior distribution) كما يلي:
\begin{equation}
p(\theta|\mathbf{x})=\frac{L(\mathbf{x}|\theta)p(\theta)}{\int_{-\infty}^{\infty }L(x|\theta)p(\theta)d\theta}
\end{equation}
حيث أن $p(\theta|\mathbf{x})$ هو التوزيع اللاحق (posterior distribution) و $p(\theta)$ هو التوزيع الأولي (prior distribution) و $L(\mathbf{x}|\theta)$ هي دالة الإحتمال (likelihood function) أما المقدار الموجود في المقام :
\[
\int_{-\infty}^{\infty }L(x|\theta)p(\theta)d\theta\
\]
فهو ثابت المعايرة (Normalising constant).
التوزيع الأولي (prior distribution) لايعتمد على البيانات وينبغي تحديدة قبل مشاهدة البيانات وهو يمثل مانعتقده حول معلمة معينة وأن يحدد بعناية لتجنب التأثير الشخصي على النتائج (subjective) فإختلاف التوزيع الأولي يؤدي لإختلاف الإستدلالات الإحصائية. في بعض الأحيان قد نشعر بأنه ليس لدينا أي معلومات مسبقة حول معلمة ما، في مثل هذه الحالات يجب أن نستخدم توزيع أولي يعكس جهلنا حول هذه المعلمة. من اهم الملاحظات أنه في الإحصاء البيزي، المعلمة (parameter) ليس قيم واحدة كما في الإحصائ التقليدي وإنما تعامل كمقدار عشوائي يتبع توزيعاً محددا. حيث يتم حساب الإستدلالات الإحصائية حول هذه المعلمة من هذا التوزيع مثل المتوسط والوسيط وفترات الثقة. لبناء النموذج البيزي هناك اربع خطوات وهي:
- تحديد التوزيع الإحتمالي للبيانات وصياغة دالة الإحتمال.
- تحديد التوزيع الأولي.
- حساب التوزيع اللاحق.
- تحديد الإستدلالات الإحصائية من التوزيع اللاحق مثل المتوسط اللاحق (posterior mean)، الوسيط اللاحق (posterior mean) والفترات الموثوفة (credible intervals) وغيرها.
حيث يمكن حساب التوزيع اللاحق بعدة طرق كما في الشكل التالي:
مثال(1): نفرض أن لدينا عينة عشوائية $x_{1},x_{2},…,x_{n}$ تتبع توزيع ذات الحدين (binomial distribution)، حيث تعطى دالة الكتلة الإحتمالية (probability mass function) كما يلي:
\[
f\left( x_{i};\theta \right) =\left(
\begin{array}{c}
N_{i} \\
x_{i}%
\end{array}%
\right) \theta ^{x_{i}}\left( 1-\theta \right) ^{N_{i}-x_{i}}
\]
نفرض أن التوزيع الأولي (prior distribution) للبارامتر الوحيد $\theta $ هو توزيع بيتا (beta distribution) والذي يعطى من خلال دالة الكثافة الإحتمالية (probability density function) التالية:
\[
p\left( \theta \right) =\frac{\Gamma \left( a+b\right) }{\Gamma \left(
a\right) \Gamma \left( b\right) }\theta ^{a-1}\left( 1-\theta \right)
^{b-1},0\leq \theta \leq 1
\]
بالتالي التوزيع اللاحق (posterior density function) يمكن حسابة كما يلي:
\begin{eqnarray*}
p\left( \theta |\mathbf{x}\right) &\propto &L(\mathbf{x|}\lambda )p\left(
\lambda \right) \\
&\propto &\theta ^{\sum\nolimits_{i=1}^{n}x_{i}}\left( 1-\theta \right)
^{\sum\nolimits_{i=1}^{n}N_{i}-\sum\nolimits_{i=1}^{n}x_{i}}\times \theta
^{a-1}\left( 1-\theta \right) ^{b-1} \\
&\propto &\theta ^{a-1-\sum\nolimits_{i=1}^{n}x_{i}}\left( 1-\theta \right)
^{b-1+\sum\nolimits_{i=1}^{n}N_{i}-\sum\nolimits_{i=1}^{n}x_{i}} \\
&\propto &\theta ^{\left( a+\sum\nolimits_{i=1}^{n}x_{i}\right) -1}\left(
1-\theta \right) ^{\left(
b+\sum\nolimits_{i=1}^{n}N_{i}-\sum\nolimits_{i=1}^{n}x_{i}\right) -1}
\end{eqnarray*}
وهذا يمثل توزيع بيتا النسبي (بدون ثابت المعايرة – normalising constant)، بالتالي:
\[
\theta |\mathbf{x}\sim Beta\left(
a+\sum\nolimits_{i=1}^{n}x_{i},b+\sum\nolimits_{i=1}^{n}N_{i}-\sum%
\nolimits_{i=1}^{n}x_{i}\right)
\]
بالتالي فإن حساب متوسط (posterior mean) التوزيع اللاحق تعطى كما يلي:
\[
E\left( \theta |\mathbf{x}\right) =\frac{a+\sum\nolimits_{i=1}^{n}x_{i}}{%
a+b+\sum\nolimits_{i=1}^{n}N_{i}}
\]
كذلك وتباينه (posterior variance) هو :
\[
Var\left( \theta |\mathbf{x}\right) =\frac{\left(
a+\sum\nolimits_{i=1}^{n}x_{i}\right) \left(
b+\sum\nolimits_{i=1}^{n}N_{i}-\sum\nolimits_{i=1}^{n}x_{i}\right) }{\left(
a+b+\sum\nolimits_{i=1}^{n}N_{i}\right) ^{2}\left(
1+a+b+\sum\nolimits_{i=1}^{n}N_{i}\right) }.
\]
مثال(2): نفرض أن لدينا عينة عشوائية $x_{1},x_{2},…,x_{n}$ تتبع توزيع بواسون (Poisson distribution) والذي يمثل بدالة الكتلة الإحتمالية (Probablity mass function) التالية:
\[
f\left( x_{i};\lambda \right) =\frac{\lambda ^{x_{i}}e^{-\lambda }}{x_{i}!}
\]
نفرض أن التوزيع الأولي (prior distribution) لـ $\lambda $ هو توزيع جاما (gamma distribution) والذي يمثل بالدالة:
\[
p\left( \lambda \right) =\frac{b^{a}}{\Gamma \left( a\right) }\lambda
^{a-1}e^{-b\lambda }
\]
بالتالي، يمكن كتابة التوزيع اللاحق (posterior distribution) كما يلي:
\begin{eqnarray*}
p\left( \lambda |x\right) &\propto &L(x|\lambda )p\left(
\lambda \right) \\[5pt]
&\propto &\lambda ^{\sum\nolimits_{i=1}^{n}x_{i}}e^{-n\lambda }\times
\lambda ^{a-1}e^{-b\lambda } \\[5pt]
&\propto &\lambda ^{a-1+\sum\nolimits_{i=1}^{n}x_{i}}e^{-n\lambda -b\lambda
} \\[5pt]
&\propto &\lambda ^{\left( a+\sum\nolimits_{i=1}^{n}x_{i}\right)
-1}e^{-\left( n+b\right) \lambda }
\end{eqnarray*}
والذي يمكن كتابته كتوزيع جاما كما يلي:
\[
\lambda |\mathbf{x}\sim Gamma\left(
a+\sum\nolimits_{i=1}^{n}x_{i},n+b\right)
\]
وبالتالي متوسط التوزيع اللاحق وتباينة تعطى من خلال:
\[
E\left( \lambda |x\right) =\frac{a+\sum\nolimits_{i=1}^{n}x_{i}}{%
n+b}
\]
\[
Var\left( \lambda |x\right) =\frac{a+\sum\nolimits_{i=1}^{n}x_{i}}{%
\left( n+b\right) ^{2}}.
\]
شكراً لكم موقع مميز ومقال جميل … نتمنى مزيداً من المواضيع
جدا ممتاز الموضوع وقليل المواضيع التي تتحدث عن هذا الموضوع ,, موقع مميز للامام ارجو اضافاتكم تستمر
شكراً لمروركم الكريم … نتظلع للأفضل ونعدكم بالمزيد
ماشاء الله مبدعين والى الامام
بارك الله فيك وفي جهدك دكتورنا. شهور قضيتها في محاولة فهم نظرية بيز ومايتبعها من دوال وتوزيع احتماليات. وبعد قرأة المقالة، اتضحت لدي الصورة.
عالم البيانات يحتاج إلى قاعدة إحصائية قوية يرتكز عليها عند القيام بتحليل البيانات بداية من تنظيف البيانات وحتى مرحلة قرأة النتائج و تفسيرها.
أهلاً بك.
ماشاء الله شرح رائع وأمثلة مميزة، وأرى دكتورنا ان تتكلم عن بعض صعوبات هذه المدرسة ولماذا نضطر لاستخدام MCMC مثلا.
كل الشكر.
شكرا جزيلا على الموضوع. كيف يمكن التواصل مع الناشر او المؤلف عندي كم استفسار عن موضوع فلسفة Bayesian Learning ايميلي Bkr75r@gmail.com