Varyans hesaplanması için algoritmalar

Vikipedi, özgür ansiklopedi
Atla: kullan, ara

İstatistiksel ölçülerinin bilgisayar ile yapılan hesaplanmalarında varyans hesaplanması icin kullanılan algoritmalar pratik sonuçlar elde edilmesinde önemli rol oynamaktadırlar. Varyansın hesaplanması için işe yarar bilgisayar algoritmalarının tasarlanmasında ana sorun varyans formüllerinin veri kare toplamlarının hesaplanmasını gerektirmesindedir. Bu işlem yapılırken sayısal kararsızlık problemleri ve özellikle büyük veri değerleri bulunuyorsa aritmetik taşmalar problemleri ortaya çıkması çok muhtemeldir.

I. Naif algoritma[değiştir | kaynağı değiştir]

Tüm bir anakütle veri dizisi için varyansın hesaplanması için formül şudur:

\sigma^2 = \displaystyle\frac {\sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2/n}{n}. \!

Bir sonsuz olmayan n gözlem hacminde bir örneklem veri dizisi kullanarak anakütle varyansının bir yansız kestirim değerini bulmak için formül şöyle ifade edilir:

s^2 = \displaystyle\frac {\sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2/n}{n-1}. \!

Bu formüller kullanılarak varyans kestirimi hesaplamak için bir naif algoritma için szde kod şöyle verilir:

n = 0
toplam = 0
toplam_kare = 0

for veri olan her x:
  n = n + 1
  toplam = toplam + x
  toplam_kare = toplam_kare + x*x
end for

ortalama = toplam/n
varyans = (toplam_kare - toplam*ortalama)/(n - 1)

Bu algoritma bir sonlu anakutle verileri icin varyansin hesaplanmasina hemen adapte edilebilir: en son satirda ki n - 1 ile bolum yapilacagina n ile bolum yapilir.

toplam_kare ve toplam * ortalama bibirine hemen yakin sayilar olabilir. Bu nedenle sonucun kesinligi hesaplamada kullanilan kayan noktali aritmetigin dogal kesinligindan daha az olabilir. Eger varyans degeri elde edilen veri toplamina karsit olarak daha kucuk ise, bu sorun daha da siddetle ortaya cikar.

II. İki-geçişli algoritma[değiştir | kaynağı değiştir]

Varyans için değişik bir formül kullanan diğer bir yaklaşım şu sözde kod ile verilmiştir:

n = 0
toplam1 = 0
for veri olan her x:
  n = n + 1
  toplam1 = toplam1 + x
end for
ortalama = toplam1/n

toplam2 = 0
for veri olan her x:
  toplam2 = toplam2 + (x - ortalama)^2
end for
varyans = toplam2/(n - 1)

IIa. Düzeltilmiş toplam şekli[değiştir | kaynağı değiştir]

Yukarıda verilen algortımanın düzeltilmiş toplam şekli şöyle verilir:

n = 0
toplam1 = 0
for veri olan her x:
  n = n + 1
  toplam1 = toplam1 + x
end for
ortalama = toplam1/n

toplam2 = 0
toplamc = 0
for veri olan her x:
  toplam2 = toplam2 + (x - ortalama)^2
  toplamc = toplamc + (x - ortalama)
end for
varyans = (toplam2 - toplamc^2/n)/(n - 1)

III. On-line algoritması[değiştir | kaynağı değiştir]

m_{\mathrm{yeni}} = \frac{n \; m_{\mathrm{eski}} + x_{\mathrm{yeni}}}{n+1} = m_{\mathrm{eski}} + \frac{x_{\mathrm{yeni}} - m_{\mathrm{eski}}}{n+1} \!
s^2_{\mathrm{n-1, yeni}} = \frac{(n-1) \; s^2_{\mathrm{n-1, eski}} + (x_{\mathrm{yeni}} - m_{\mathrm{yeni}}) \, (x_{\mathrm{yeni}} - m_{\mathrm{eski}})}{n} \; \; \, \,  \; \,     \mathrm{n>0} \!
s^2_{\mathrm{n, yeni}} = \frac{(n) \; s^2_{\mathrm{n, eski}} + (x_{\mathrm{yeni}} - m_{\mathrm{yeni}}) \, (x_{\mathrm{yeni}} - m_{\mathrm{eski}})}{n+1}.

Gereken yenileştirme için bulunabilecek daha uygun bir işlemin (cari) ortalamadan farkların karelerinin toplamını bulmak olduğu anlaşılmıştır; bu değer \sum_{i=1}^n (x_i - m)^2 olup burada M_2 olarak gösterilmektedir:

M_\mathrm{2,yeni}\! = M_\mathrm{2,eski} + (x_\mathrm{new} - m_\mathrm{eski})(x_\mathrm{yeni} - m_\mathrm{yeni})
s^2_\mathrm{n} = \frac{M_2}{n}
s^2_\mathrm{n-1} = \frac{M_2}{n-1}

Sayısal olarak daha kararlı bir algoritma aşağıda verilmiştir. Bu algoritma ortalama hesaplamak için kullanılmak niyetiyle Knuth (1998) tarafından verilmiş [1] ve orada ilk defa Welford(1962) tarafından ortaya atıldığı bildirilmiştir. [2]

n = 0
ortalama = 0
M2 = 0

for veri olan her x:
  n = n + 1
  delta = x - ortalama
  ortalama = ortalama + delta/n
  M2 = M2 + delta*(x - ortalama)   // Bu terim ortalama icin yeni değeri kullanır
end for

varyans_n = M2/n
varyans = M2/(n - 1)


IV. Ağırlıklı küçük artışlı algoritma[değiştir | kaynağı değiştir]

Eğer gözlemler için değişik ağırlıklar verilmişse, West (1979) şu küçük artışlı algoritmanın kullanılabileceğini bildirmiştir:[3]

n = 0
for veri olan her x:
  if n=0 then 
      n = 1
      ortalama = x
      S = 0
      toplamagırlık = agırlık
  else
      n = n + 1
      temp = agırlık + toplamagırlık
      S = S + sumweight*agırlık*(x-ortalama)^2 / temp
      ortalama = ortalama + (x-ortalama)*agırlık / temp
      toplamagırlık = temp
  end if
end for
Varyans = S * n / ((n-1)*toplamagırlık)  // eğer veri dizisi anakütle içinse n/(n-1) kullanılmaz.

V. Paralel algoritma[değiştir | kaynağı değiştir]

Chan, Golub ve LeVeque (1979) hazırladıkları bir raporda yukarıda verilen III. On-line Algoritmasının bir örneklem olan Xi herhangi iki tane X^A ve X^B setlerine ayırmak için işleme konabilen bir algoritmanın özel bir hali olduğunu bildirmişlerdir:

\delta\! = m^B - m^A
m^X = m^A + \delta\cdot\frac{N^B}{N^X}
M_2^X = M_2^A + M_2^B + \delta^2\cdot\frac{N^A N^B}{N^X}.

Bu bazı hallerde daha kullanışlı olabilmektedir. Örneğin girdinin ayrılabilir parçalarına çoklu kompüter işlem birimlerinin kullanılması imkânini sağlayabilir.


V.a. Üst seviyede istatistikler[değiştir | kaynağı değiştir]

Örneklem verileri için üst seviyede istatistikler olan çarpıklık ve basıklık ölçülerini bulmak icin Terriberry Chen'in üçüncü ve dördüncü merkezsel moment bulmak için ortaya attığı formülü daha uygun bir şekile şöyle değiştirmiştir.:[4]

M_3^X = M_3^A + M_3^B + \delta^3\frac{N^A N^B (N^A - N^B)}{(N^X)^2} + 3\delta\frac{N^AM_2^B - N^BM_2^A}{N^X}
\begin{align}
M_4^X = M_4^A + M_4^B & + \delta^4\frac{N^A N^B \left((N^A)^2 - N^A N^B + (N^B)^2\right)}{(N^X)^3} \\
                    & + 6\delta^2\frac{(N^A)^2 M_2^B + (N^B)^2 M_2^A}{(N^X)^2} + 4\delta\frac{N^AM_3^B - N^BM_3^A}{N^X} \\
\end{align}

Burada yine, M_k verilerin ortalamadan farklarının üstel değerlerinin toplamlarıdır; yani \Sigma(x - \overline{x})^k olur. Bu değerler kullanılarak çarpıklık ve basıklık ölçüleri şöyle bulunur:

g_1 = \frac{\sqrt{n} M_3}{M_2^{3/2}} : çarpıklık,
g_2 = \frac{n M_4}{M_2^2} : basıklık.

Küçük artışlı hallerde (yani B = \{x\}), bu şöyle basitleştirilebilir:

\delta\! = x - m
m' = m + \frac{\delta}{n+1}
M_2' = M_2 + \frac{\delta^2 n}{n+1}
M_3' = M_3 + \frac{\delta^3 n (n - 1)}{(n+1)^2} - \frac{3\delta M_2}{n+1}
M_4' = M_4 + \frac{\delta^4 n (n^2 - n + 1)}{(n+1)^3} + \frac{6\delta^2 M_2}{(n+1)^2} - \frac{4\delta M_3}{n+1}

Burada dikkati çeken nokta, \delta / (n+1) değerini korumak suretiyle, sadece tek bir bölme işleminin gerekli olmasi ve böylece çok az bir ekstra maliyetle daha yüksek istatistiksel ölçüler hesaplanabilmesidir.

Örnek[değiştir | kaynağı değiştir]

Kullanılan kompüterde bütün "floating" nokta operasyonlarının IEEE 754 çifte-hassiyetli aritmetik ile yapıldığı varsayılsın. Sonsuz büyüklükte bir anakütleden n=5 büyüklüğünde bir örneklem olarak

4, 7, 13, 16

veri seti elde edildiğini düşünelim. Bu örneklem için örneklem ortalaması 10 olur ve yanlı olmayan anakütle varyans kestirimi 30dur. Hem "I. naif Algoritma" hem de "II. iki geçisli Algoritma" bu değerleri doğru olarak hesaplamaktadirlar.

Şimdi örnekleme olarak şu veri setini alalım:

10^8+4, 10^8+7, 10^8+13, 10^8+16

Bu örneklemin de, birinci orneklem gibi ayni varyans kestirimine sahip olması gerekir. "II. Algoritma" bu varyansı doğru olarak hesaplamaktadır. Fakat "I. Algoritma" sonuç olarak tam 30 yerine 29.333333333333332 sonucu verir. Bu dakiklik kaybının belki kabul edilebilir tolerans olduğu ve "I. Algoritma" kullanılmasının nisbeten önemsiz bir hata doğurduğu söylenebilir.

Fakat bu "I. Algoritma" hesaplamasında çok önemli bir eksiklik ve hataya işaret etmektedir. Bu sefer örneklem olarak şunu alalım:

10^9+4, 10^9+7, 10^9+13, 10^9+16

Yine "II. Algoritma" doğru anakütle varyans kestirimi oalarak 30 gösterir. Ama "I. Algoritma" kullanılınca elde edilen kestirim hesabı -170.66666666666666 olarak verilir. Bu çok önemli ve yapılmaması gereken bir hatadır; çünkü kavram olarak tanımlamayla varyans değerinin hiçbir zaman negatif olmaması gerekir.

Ayrıca bakınız[değiştir | kaynağı değiştir]

Kaynakça[değiştir | kaynağı değiştir]

  1. ^ Knuth,D.E. (1998). The Art of Computer Programming, V.2: Seminumerical Algorithms, 3üncü ed., p. 232. Boston: Addison-Wesley.
  2. ^ Welford,B.P. (1962). "Note on a method for calculating corrected sums of squares and products". Technometrics C.4 No.3 say.419–420. [1]
  3. ^ D. H. D. West (1979). Communications of the ACM, 22, 9, 532-535: Updating Mean and Variance Estimates: An Improved Method
  4. ^ Terriberry,T.B. (2007), Computing Higher-Order Moments Online url=http://people.xiph.org/~tterribe/notes/homs.html

Dış bağlantılar[değiştir | kaynağı değiştir]