Anderson-Darling sınaması

Vikipedi, özgür ansiklopedi
Atla: kullan, ara

Anderson-Darling sınaması, istatistik bilim dalında, bir parametrik olmayan istatistik sınaması olup örneklem verilerinin belirli bir olasılık dağılımı gösterip göstermediğini sınamak için, yani uygunluk iyiliği sınaması için, kullanılmaktadır. Bu sınama ilk defa 1952de Amerikan istatistikçileri T.W.Anderson Jr. ile D.A.Darling tarafından yayınlanmıştır.[1] Bu sınama Kolmogorov-Smirnov sınamasının değiştirilmesi ve olasılık dağılımının kuyruklarına daha çok ağırlık verilmesi ile ortaya çıkartılmıştır.

Anderson-Darling sınamasının pratikte veriler için normal dağılımdan ayrılıp ayrılmadığını incelemek için kullanılan normallik sınaması yöntemleri arasında bulunan en güçlü sınamalardan biri olduğu iddia edilmektedir. [2] Hem çok küçük (n le; 25) örneklem sayılı veriler için hem de hacmi 200u aşan sanayi kalite kontrol verileri için başarıyla normallik sınaması için kullanıldığı bildirilmiştir.

Genel uygunluk iyiliği sınaması[değiştir | kaynağı değiştir]

Anderson-Darling sınaması bir örneklem verisinin tam olarak belirlenmiş bir olasılık dağılımı gösteren bir anakütleden gelip gelmediğinin sınanması için kullanılır. Verilmiş N büyüklük sayıda bir örneklem veri serisi, yani \{X_1,\cdots,X_N\}, kullanılır. Bu serinin sınanmansı için hangi olasılık dağılımından geldiğinin ve bu olasılık dağılımını tam olarak belirleyen parametre değerinin veya parametreler değerlerinin verilmesi gerekir.

Anderson-Darling sınaması için sıfır hipotez, her türden uygunluk iyiliği sınaması gibi, örneklem verilerin için tüm parametre değerleri ile iyice belirlenen olasılık dağılımlı anakütleden geldiğidir. Bu sıfır hipotezin çok sınırlı olduğuna dikkat çekilmelidir. Ancak verilmiş parametre veya parametreler için olasılık dağılımı uygulanması incelenmektedir. Eğer sıfır hipotez sınama sonucu ret edilirse, verilerin parametre(ler) ile belirlenmiş dağılıma uymadığı sonucuna varılır. Tekrar edilmelidir ki genel olarak belli bir dağılım ret edilmemektedir; sadece belli parametresi olan dağılım ret edilmektedir.

Elde edilen veriler en küçük değerden en büyük değere kadar bir sıraya konulur. Bu sıraya konulmuş veriler, yani \{Y_1<\cdots <Y_N\}, bir sınama istatistiğinin hesaplanması için kullanılır. Parametresi veya parametreleri verilmiş olasılık dağılımı için birikimli dağılım fonksiyonu kullanılarak bir sıra F değerleri bulununur. Bu iki seri kullanılarak önce şu S toplamı elde edilir.

S=\sum_{k=1}^N \frac{2k-1}{N}\left[\ln F(Y_k) + \ln\left(1-F(Y_{N+1-k})\right)\right].

Bu toplam kullanılarak Anderson-Darling istatistiği A^2 değeri yani

A^2 = -N-S

elde edilir.

Sıfır hipotezde belirtilen olasılık dağılımına göre, elde edilen A^2 değerinin belirli bir sabitle (çok kere örneklem hacmi 'N'e bağlı olarak) çarpılmasi gerektir ve bu değiştirilmiş Anderson-Darling istatistiği A^{*2} adı altında sınama istatistiği olarak kullanılır.

A^{*2} sınama istatistiği belirlenen teorik olasılık dağılımı için p-değeri bulmak için kullanılır. Hesaplanmış p-değeri eğer %1 veya %5 olan anlamlılık seviyesinden büyük ise sıfır hipotez kabul edilir ve örneklem verisi belirlenen olasılık dağılımına uyduğu sonucuna varılır. Ancak bu p-değeri bulma işlemi bir olasılık dağılımı simülasyonu gerekeceği için bilgisayarla sayısal hesaplama gerektirir.

Bazı olasılık dağılımları için özel tablolar geliştirilmiş ve değişik parametre değerleri ve belirtilmiş anlamlılık değerleri için (genellikle %1 ve %5) kritik değerler tabloda belirtilmiştir. Normal dağılım, log-normal dağılım, üstel dağılım, Weibull dağılımı, logistik dağılım ve Tip I uçsal değerler için bu tabloların bulunduğu bilinmektedir. Tablodan bulunan kritik değer, hesaplanmış A^{*2} değeri ile karşılaştırılır. Belirlenmiş olasılık dağılımına uygunluk sıfır hipotezinin kabul edilmesi sonucudur yani hesaplanmış değer tablo kritik değerinden büyükse örneklem verileri belirlenmiş olasılık dağılımına uygunluk gösterir sonucuna varılır.

Normallik sınaması[değiştir | kaynağı değiştir]

Anderson-Darling sınamasının bir normallik sınaması olarak kullanılmasındaki genel mantıksal temel, veri serileri ile belirlenmiş normal dağılım arasında bir uzaklık ifade eden empirik dağılım fonksiyonu bulunmasıdır. Bu temel, hipotez olan dağılımın gerçekte bulunduğu kabul edilirse, veri serisinin bir tekdüze dağılıma dönüştürülebilineceği kavramına dayanır. Böylece dönüştürülen örneklem veri serisi bir uzaklık sınaması kullanılarak tekdüze dağılım olup olmadığı test edilir.[3]

Veri serisi yani i=1,\ldots n için X_i olarak verilmiştir. İlk etapta bu seri en küçük değerden en büyük değere doğru sıralanır, yani \{X_1<\cdots <X_N\}, hesaplamalar için kullanılır. X icin ortalama \bar{X} ve standart sapma s bulunur. Sıralı X şöyle normalize edilirek Y değişkenine dönüştürülür:

Y_i=\frac{X_i-\bar{X}}{s}

Bu dönüştürülmüş veriler hesaplamalar da kullanılır.

Örneklemden bulunan ortalama \bar{X} ve standart sapma s sıfır hipoteze göre normal varsayılan anakütlenin parametrelerinin yansız kestirimleri sayılır. O zaman dönüştürülmüş veriler kullanıldığı için sıfır hipotez Ynin dağılımının standart normal dağılım, yani N(0,1), olduğudur.

Standart normal dağılım için birikimli dağılım fonksiyonu \Phi olarak ifade edilirse, Anderson-Darling istatistigi yani A^1 şöyle yazılır:

A^2 = -n -\frac{1}{n} \sum_{i=1}^n (2i-1)(\ln \Phi(Y_i)+ \ln(1-\Phi(Y_{n+1-i})))

veya tekrar eden indeksler yazılmazsa

A^2 = -n -\frac{1}{n} \sum_{i=1}^n\left[(2i-1)\ln\Phi(Y_i)+(2(n-i)+1)\ln(1-\Phi(Y_i))\right].

Eğer herhangi bir P_i = 0\quad veya\quad 1 ise bu A^2 hesaplanamaz ve bu halde A^2 anlamsız olduğu için, hesapların bırakılmasi gerekir.

Eğer A^2 hesaplanabilirse, örneklem hacmi 'N'ye için yaklaşık bir ayarlama yapılarak değiştirilmiş Anderson-Darling istatistiği A^{*2} olarak, şöyle bulunur:

A^{*2}=A^2\left(1+\frac{0.75}{n}+\frac{2.25}{n^2}\right)

Eğer A^{*2} değeri 0.752 değerini aşarsa 5% anlamlılık seviyesinde sıfır hipotez olan normallik ret edilir.

Yapılan araştırmalara göre Anderson-Darling sınaması için sınama istatistigi olan A^{*2}nin normallik sınaması için kullanılan yöntemlerden en güçlü olanlardan biri olduğu bulunmuştur.[4] Buna en yakın güçte yöntemin Cramér von-Mises sınaması için bulunan W^2 olduğu da aynı yazıda açıklanmıştır.

İçsel kaynaklar[değiştir | kaynağı değiştir]

Referanslar[değiştir | kaynağı değiştir]

  1. ^ Anderson Jr.,T.W. ve Darling,D.A. (1952) "Asymptotic theory of certain 'goodness-of-fit' criteria based on stochastic processes' Annals of Mathematical Statistics C.23 say. 193–212
  2. ^ Stephens,M.A. (1974) "EDF Statistics for Goodness of Fit and Some Comparisons" Journal of the American Statistical Association C.69 say.730–737
  3. ^ Stephens/
  4. ^ Stephens/


Dışsal kaynaklar[değiştir | kaynağı değiştir]

  • [1] US NIST İstatistik Elkitabı.