Delta metodu

Vikipedi, özgür ansiklopedi
Atla: kullan, ara

Delta Metodu istatistikte, bir asimtotik normal istatistiki tahmin edicinin fonksiyonu için bu tahmin edicinin sınırlayıcı varyans bilgisi kullanılarak yaklaşık bir olasılık dağılımı türetme metodudur. Delta metodu merkezi limit teoreminin genelleştirilmiş hali olarak ele alınabilir.

Tek Değişkenli Delta Metodu[değiştir | kaynağı değiştir]

Xn dağılımda

{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,N(0,\sigma^2)},

koşulunu sağlayan rassal değişkenler dizisi olsun. ( Burada \theta ve \sigma^2 sonlu değere sahip sabitleri ve \xrightarrow{D} dağılımda yakınsamayı temsil etmektedir.)

Veri bir g fonksiyonu ve belli bir \theta değeri için g'(\theta)'nın var olduğunu ve sıfıra eşit olmadığını varsayalım. O halde dağılımda,

{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,N(0,\sigma^2[g'(\theta)]^2)}

olur.

Tek Değişkenli Durumda Kanıt[değiştir | kaynağı değiştir]

g'(\theta) süreklidir varsayımı altında kanıtı gerçekleştirmek oldukça kolaydır. Öncelikle ortalama değer kuramı kullanılarak başlanır;

g(X_n)=g(\theta)+g'(\tilde{\theta})(X_n-\theta),

Burada \tilde{\theta}, X_n ve \theta arasında bir değer almaktadır. X_n\,\xrightarrow{P}\,\theta, \tilde{\theta} \,\xrightarrow{P}\,\theta'yı ima ettiğinden ve g'(\theta) sürekli olduğundan Slutsky Teoremi'nin uygulanması sonucunda

g'(\tilde{\theta})\,\xrightarrow{P}\,g'(\theta),

elde edilir ki burada \xrightarrow{P} olasılıkta yakınsamayı ifade etmektedir.

İfadeleri düzenler ve \sqrt{n} ile çarparsak

\sqrt{n}[g(X_n)-g(\theta)]=g'(\tilde{\theta})\sqrt{n}[X_n-\theta].

ifadesini elde ederiz.

Varsayım gereği,

{\sqrt{n}[X_n-\theta] \xrightarrow{D} N(0,\sigma^2)}

olduğundan Slutsky Teoreminden

{\sqrt{n}[g(X_n)-g(\theta)] \xrightarrow{D} N(0,\sigma^2[g'(\theta)]^2)}.

elde edilir ve kanıt tamamlanır.

Çok Değişkenli Delta Metodu[değiştir | kaynağı değiştir]

Tanım gereği, istatistikte tutarlı tahmin edici B gerçek değeri olan \beta'ya yakınsar ve genelde asimtotik normalite elde etmek için merkezi limit teoremi uygulanabilir.


\sqrt{n}\left(B-\beta\right)\,\xrightarrow{D}\,N\left(0, \Sigma \right),

burada n gözlem sayısını ve \Sigma (simetrik pozitif yarı belirli) kovaryans matrisini ifade etmektedir. B tahmin edicisinin h fonksiyonuna ait varyansını tahmin etmek istediğimizi varsayalım. Taylor serisinin ilk iki terimini ele alır ve gradyan için vektör notasyonu kullanırsak, h(B)'yi


h(B) \approx h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)

olarak tahmin edebiliriz ki bu h(B)'nin varyansının yaklaşık olarak,


\begin{align}
\operatorname{Var}\left(h(B)\right) & \approx \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)\right) \\

 & = \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot B - \nabla h(\beta)^T \cdot \beta\right) \\

 & = \operatorname{Var}\left(\nabla h(\beta)^T \cdot B\right) \\

 & = \nabla h(\beta)^T \cdot Var(B) \cdot \nabla h(\beta) \\

 & = \nabla h(\beta)^T \cdot (\Sigma/n) \cdot \nabla h(\beta)
\end{align}

olduğunu ima eder.

(Çok değişkenli reel değerli fonksiyonlar için) Ortalama limit teoremi kullanılarak bunun birinci derece yakınlaştırmaya dayanmadığı görülebilir.

Dolayısıyla Delta metodu,


\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \nabla h(\beta)^T \cdot \Sigma \cdot \nabla h(\beta) \right)

veya tek değişken ifadesiyle,


\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \sigma^2 \cdot \left(h^\prime(\beta)\right)^2 \right).

olduğunu ima eder.

Örnek[değiştir | kaynağı değiştir]

 X_n 'in  p ve  n parametreleri ile binom dağılıma sahip olduğunu varsayalım.

{\sqrt{n} \left[ \frac{X_n}{n}-p \right]\,\xrightarrow{D}\,N(0,p (1-p))},

olduğundan,  g(\theta) = \log(\theta) ile delta metodunu uygulayabilir ve

{\sqrt{n} \left[ \log\left( \frac{X_n}{n}\right)-\log(p)\right] \,\xrightarrow{D}\,N(0,p (1-p) [1/p]^2)}

olduğunu görebiliriz. Dolayısıyla,  \log \left( \frac{X_n}{n} \right) 'in varyansı yaklaşık olarak

 \frac{1-p}{p\,n}. \,\!

şeklindedir. Dahası, eğer \hat p ve \hat q sırasıyla n ve m büyüklüklerinde bağımsız örneklemlerden elde edilen farklı grup oranı tahminleriyse, tahmini göreli risk  \frac{\hat p}{\hat q} 'nın logaritması yaklaşık olarak  \frac{1-\hat p}{\hat p \, n}+\frac{1-\hat q}{\hat q \, m} ile tahmin edilebilecek varyansa sahip normal dağılıma sahiptir. Bu göreli risk için hipotez testi kurmak veya güven aralığı oluşturmak için faydalıdır.

Not[değiştir | kaynağı değiştir]

Delta metodu genellikle Xn veya B'nin asimtotik olarak normal olarak dağıldığı varsayımı hariç yukarıdaki ile benzer biçimde kullanılmaktadır. Genelde tek şart varyansın küçük olduğudur. Bu durumda sonuçlar sadece dönüştürülmüş büyüklükler için ortalama ve kovaryanslar için yaklaştırımlar verir. Örneğin, Klein (1953, p. 258)'da sunulan formüller şu şekildedir;


\begin{align}
\operatorname{Var} \left( h_r \right) = & \sum_i 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)^2
  \operatorname{Var}\left( B_i \right) + \\
 &  \sum_i \sum_{j \neq i} 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_r }{ \partial B_j } \right)
  \operatorname{Cov}\left( B_i, B_j \right) \\
\operatorname{Cov}\left( h_r, h_s \right) = & \sum_i 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_s }{ \partial B_i } \right)
  \operatorname{Var}\left( B_i \right) + \\
 &  \sum_i \sum_{j \neq i} 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_s }{ \partial B_j } \right)
  \operatorname{Cov}\left( B_i, B_j \right)
\end{align}

burada hr, h(B)'nin rinci elemanı ve Bi, 'nin iinci elemanıdır. Tek fark Klein'ın bunları aslında yaklaştırımlar olmasına rağmen özdeşlikler olarak ifade etmesidir.

Ayrıca bakınız[değiştir | kaynağı değiştir]

Kaynaklar[değiştir | kaynağı değiştir]