स्नातकोत्तर

स्नातकोत्तरप्रायिकता और सांख्यिकीसांख्यिकीय व्युत्पत्ति


अधिकतम संभाव्यता अनुमान


अधिकतम संभाव्यता अनुमान (MLE) एक सांख्यिकीय तकनीक है जिसका उपयोग सांख्यिकीय मॉडल के मापदंडों का अनुमान लगाने के लिए किया जाता है। यह मौलिक तकनीक अर्थशास्त्र, वित्त, जीव विज्ञान, मशीन लर्निंग और अन्य क्षेत्रों में व्यापक रूप से लागू होती है। सरल शब्दों में, MLE आपको मॉडल के लिए ऐसे मापदंडों के मान खोजने में मदद करता है जो आपके अवलोकित डेटा को सबसे अधिक संभाव्य बनाते हैं। मुख्य विचार संभावना फ़ंक्शन को अधिकतम करना है, जो कि मापदंडों के एक सेट को देखते हुए डेटा का अवलोकन करने की संभावना है।

मूल अवधारणाओं को समझना

अधिकतम संभाव्यता अनुमान की जटिलताओं में जाने से पहले, कुछ बुनियादी सांख्यिकीय और संभावना अवधारणाओं को समझना महत्वपूर्ण है।

सांख्यिकीय मॉडल

एक सांख्यिकीय मॉडल एक गणितीय निरूपण है जो यादृच्छिक चरों और उनके रिश्तों का वर्णन करता है। उदाहरण के लिए, मान लीजिए कि आपके पास डेटा बिंदुओं का एक सेट है। एक सांख्यिकीय मॉडल इन डेटा बिंदुओं को सामान्य रूप से वितरित के रूप में व्यक्त कर सकता है, जिसमें (mu) का औसत और (sigma) का मानक विचलन है।

मापदंड

मापदंड मॉडल के वे पहलू होते हैं जिन्हें डेटा के अनुरूप बनाने के लिए समायोजित किया जा सकता है। ऊपर दिए गए सामान्य वितरण के उदाहरण में, मापदंड औसत ((mu)) और मानक विचलन ((sigma)) होते हैं।

संभाव्यता

एक सेट के मापदंडों की संभाव्यता को उन मापदंडों को देखते हुए डेटा के अवलोकन की संभावना के रूप में परिभाषित किया जाता है। यह स्वयं एक संभावना नहीं होती, बल्कि मापदंडों का एक फ़ंक्शन होती है। अधिक औपचारिक शब्दों में, यदि (theta) वितरण के मापदंडों का प्रतिनिधित्व करता है और (X) अवलोकित डेटा का प्रतिनिधित्व करता है, तो संभावना है (L(theta | X))।

अधिकतम संभाव्यता अनुमान की प्रक्रिया

आइए अधिकतम संभाव्यता अनुमान की प्रक्रिया में शामिल चरणों का विश्लेषण करें:

चरण 1: एक सांख्यिकीय मॉडल चुनें

पहला चरण आपके डेटा की प्रकृति के आधार पर एक उपयुक्त सांख्यिकीय मॉडल चुनना है। उदाहरण के लिए, यदि आप ऊंचाई के मापन डेटा से निपट रहे हैं, तो इसे सामान्य वितरण के रूप में मॉडल करना उपयुक्त हो सकता है।

चरण 2: संभावना फ़ंक्शन को परिभाषित करें

अगला चरण आपके चुने गए मॉडल के लिए संभावना फ़ंक्शन को परिभाषित करना है। उदाहरण के लिए, मान लीजिए कि आपका डेटा सामान्य रूप से वितरित है; डेटा नमूना (X = x_1, x_2, ldots, x_n) और मापदंड (mu) (औसत) और (sigma^2) (विचरण) के लिए संभावना फ़ंक्शन है:

L(mu, sigma^2 | X) = prod_{i=1}^{n} frac{1}{sqrt{2pisigma^2}} expleft(-frac{(x_i - mu)^2}{2sigma^2}right)

चरण 3: संभावना फ़ंक्शन को अधिकतम करें

इस संभावना फ़ंक्शन को अधिकतम करने के लिए, हम आमतौर पर लॉग-संभाव्यता फ़ंक्शन के साथ काम करते हैं क्योंकि इसे नियंत्रित करना अक्सर आसान होता है:

ell(mu, sigma^2 | X) = sum_{i=1}^{n} left( -frac{1}{2} log(2pisigma^2) - frac{(x_i - mu)^2}{2sigma^2} right)

फिर आप मापदंडों के लिए लॉग-संभाव्यता फ़ंक्शन का अवकलन लेते हैं और उन्हें मापदंडों के लिए समाधानों के लिए शून्य पर सेट करते हैं।

चरण 4: मापदंडों के लिए समाधान करें

सामान्य वितरण के लिए:

frac{partial}{partial mu}ell(mu, sigma^2 | X) = 0 quad Rightarrow quad hat{mu} = frac{1}{n}sum_{i=1}^{n} x_i
frac{partial}{partial sigma^2}ell(mu, sigma^2 | X) = 0 quad Rightarrow quad hat{sigma}^2 = frac{1}{n}sum_{i=1}^{n} (x_i - hat{mu})^2

समाधान, (hat{mu}) और (hat{sigma}^2), औसत और विचरण के लिए अधिकतम संभाव्यता अनुमान हैं।

दृश्य उदाहरण

आइए, एक सरल डेटा सेट और एकल मापदंड, (p), जो बाइनॉमीय वितरण में सफलता की संभावना का प्रतिनिधित्व करता है, के मॉडल के लिए संभावना फ़ंक्शन कैसे काम करता है, इसकी कल्पना करें। हम 10 फ्लिप में से 4 हेड्स के परिणाम वाले स्वतंत्र सिक्का-फ्लिप से डेटा लेंगे।

मापदंड pसंभाव्यताP

यह उदाहरण बाइनॉमीय वितरण के लिए संभावना फ़ंक्शन को दर्शाता है। लाल बिंदु वह मापदंड मान (p) को इंगित करता है जो संभावना फ़ंक्शन को अधिकतम करता है, जो इस मामले में लगभग 0.4 या 40% संभावना है हेड्स प्राप्त करने की।

अधिकतम संभाव्यता अनुमानों के गुण

अधिकतम संभाव्यता अनुमानों के कई उल्लेखनीय गुण होते हैं जो उन्हें सांख्यिकीय अनुमान में विशेष रूप से उपयोगी बनाते हैं:

स्थिरता

जैसे-जैसे नमूना आकार बढ़ता है, एक अनुमानक स्थिर होता है यदि यह सही मापदंड मान की संभावना पर अभिसरण करता है। MLE में आमतौर पर यह गुण होता है मानक शर्तों के तहत, जिसका अर्थ है कि वे अधिक डेटा एकत्र करने पर अधिक सटीक हो जाते हैं।

क्षमता

निर्पेक्ष अनुमानकों के संदर्भ में, दक्षता इस तथ्य को दर्शाती है कि MLE मापदंड के सभी निर्पेक्ष अनुमानों में से सबसे छोटी संभव विचरण प्राप्त करता है। इस विचरण को क्रेमर-राव लोअर बाउंड कहा जाता है।

सामान्य स्थिति

कुछ नियमितता शर्तों के तहत, जैसे-जैसे नमूना आकार बढ़ता है, MLE का वितरण सामान्य वितरण की ओर झुकाव करता है। यह आत्मविश्वास अंतराल बनाने के लिए विशेष रूप से उपयोगी है।

विभिन्न मॉडलों में MLE के उदाहरण

उदाहरण 1: घातीय वितरण के मापदंड का अनुमान लगाना

घातीय वितरण को मापदंड (lambda) के साथ विचार करें। यदि आपके पास डेटा सेट (X = x_1, x_2, ..., x_n) है, तो संभावना फ़ंक्शन द्वारा दिया जाता है:

L(lambda | X) = prod_{i=1}^{n} lambda exp(-lambda x_i)

लघुगणक को लेते हुए:

ell(lambda | X) = n log(lambda) - lambda sum_{i=1}^{n} x_i

व्युत्पत्ति को शून्य पर सेट करने से मिलता है:

frac{partial}{partial lambda}ell(lambda | X) = frac{n}{lambda} - sum_{i=1}^{n} x_i = 0
hat{lambda} = frac{n}{sum_{i=1}^{n} x_i}

उदाहरण 2: एक रैखिक प्रतिगमन मॉडल में मापदंडों का अनुमान लगाना

रूप में एक सरल रैखिक प्रतिगमन मॉडल में (y = beta_0 + beta_1 x + epsilon), जहाँ (epsilon sim N(0, sigma^2)), संभावना फ़ंक्शन है:

L(beta_0, beta_1, sigma^2 | y, x) = prod_{i=1}^{n} frac{1}{sqrt{2pisigma^2}} expleft(-frac{(y_i - beta_0 - beta_1 x_i)^2}{2sigma^2}right)

इस संभावना को अधिकतम करना (beta_0), (beta_1), और (sigma^2) के लिए अनुमान निकालने में शामिल होता है। हालाँकि, यह जल्दी से साधारण समीकरणों को हल करने या मैट्रिक्स कलन का उपयोग कर प्राप्त होता है:

hat{beta} = (X^TX)^{-1} X^T y

मैट्रिक्स रूप में गुणांक के एक वेक्टर के लिए(beta)।

MLE के लाभ और हानियाँ

MLE के लाभ और हानियों को समझना आपको निर्णय लेने में मदद कर सकता है कि क्या यह मापदंड अनुमान के लिए एक उपयुक्त पद्धति है।

लाभ

  • लचीलेपन: MLE का उपयोग कई अलग-अलग वितरणों और परिदृश्यों पर किया जा सकता है। अवलोकित डेटा की संभावना को अधिकतम करने की मौलिक अवधारणा विभिन्न स्थितियों के साथ अच्छी तरह से मेल खाती है।
  • असमम लग्न गुण: जैसा कि ऊपर चर्चा की गई है, MLEs के कुछ वांछनीय असमम लग्न गुण होते हैं, जैसे कि सुसंगतता, दक्षता, और सामान्यता, जो उन्हें बड़े नमूनों के लिए सांख्यिकीय रूप से मजबूत बनाते हैं।
  • स्पष्टता: यह विधि एक सीधा परिणाम पैदा करती है - प्रतिपक्ष मॉडल की स्थापनाओं को देखते हुए, अनुमानित मापदंड 'सबसे संभाव्य' अवलोकित डेटा बनाते हैं।

हानि

  • जटिलता: जटिल मॉडलों के लिए, संभावना फ़ंक्शन जटिल हो सकता है, और इसे अधिकतम करने के लिए परिष्कृत सांकृतिकीय विधियों की आवश्यकता हो सकती है। यह सपुर्तिक्रमणात्मक रूप से गहन हो सकता है।
  • मॉडल की स्थापनाओं के प्रति संवेदनशीलता: MLEs मॉडल की सटीकता पर अत्यधिक निर्भर होते हैं। मॉडल को गलत वर्णिफिन करने से पूर्वाग्रही मापदंड अनुमान पैदा हो सकते हैं।
  • परिमित नमूने की हानियाँ: छोटे नमूने आकारों में, MLE अपने असमम लग्न गुण, जैसे कि दक्षता, नहीं दिखा सकता है, जिसके परिणामस्वरूप कम विश्वसनीय अनुमान हो सकते हैं।

निष्कर्ष

अधिकतम संभाव्यता अनुमान सांख्यिकीय अनुमान में एक मूलभूत तकनीक के रूप में खड़ा है, जो सांख्यिकीय मॉडलों की एक विस्तृत विविधता में मापदंड अनुमान के लिए एक संरचित और शक्तिशाली दृष्टिकोण प्रदान करता है। हालाँकि, यह मॉडल के चयन की सावधानीपूर्वक विचार करने की आवश्यकता होती है, साथ ही जटिल मॉडलों में सपुर्तिक्रमणात्मक चुनौतियों से निपटने की तैयारी भी। अपनी सीमाओं के बावजूद, अपनी लचीली आवेदनता और असमम लग्न गुणों के कारण यह अपने निरंतर प्रासंगिकता और व्यापक उपयोग को सुनिश्चित करता है, चाहे वह सैद्धांतिक हो या प्रस्तावित सांख्यिकी में हो।


स्नातकोत्तर → 5.2.4


U
username
0%
में पूर्ण हुआ स्नातकोत्तर


टिप्पणियाँ