Fleiss'in kappa katsayısı

Vikipedi, özgür ansiklopedi
Atla: kullan, ara

Fleiss'in kappa katsayısı ikiden fazla sabit sayida değerleyici arasındaki karşılaştirmalı uyuşmanın güvenirliğini ölçen bir istatistik yöntemidir.[1]. Fleiss'in kappa ölçüsü sabit sayıda (n tane) değerleyicinin her birinin, (N tane) maddeyi veya kişiyi (C tane) birbirinden karşılıklı hariç olan kategoriye göre ayırmaları süreci sonunda ortaya çıkan değerleyiciler arasındaki uyuşmayı ölçer. Fleiss'in kappa ölçüsü bu uyuşmanın bir şans eseri olabileceğini de ele aldığı için basit yüzde orantı olarak bulunan uyuşmadan daha güçlü bir sonuç verdiği kabul edilir. Ortaya çıkan kategorik değişken olduğu için Fleiss'in kappa katsayısı bir parametrik olmayan istatistik türüdür.

Fleiss'in kappa katsayısı iki değerleyicinin uyuşmaları sorunu inceleyen Scott'un pi katsayısı nın bir genelleştirilmesidir.[2]. Benzer şekilde Cohen'in kappa katsayısına da ilişkilidir.[3]. Ancak Scott'un pi katsayısı ve Cohen'in kappa katsayısı iki değerleyici olması gerektirirken, Fleiss'in kappa katsayisi ikiden daha çok herhangi bir sayıda değerleyici için uygulanabilir. Aynı onlar gibi, yine sabit sayıda değerleyicinin aralarındaki uyuşmanın ne kadar rastgelelik eseri olmadığı ve bu nedenle ne kadar guvenilir olduğunun sayısal olarak 0 ve 1 değerleri arasında ifade edilmektedir.

Açıklamalar[değiştir | kaynağı değiştir]

Bu konu şöyle daha genişletilebilir: Sabit n sayıda değerleyici vardır; bunların inceledikleri değerlendikleri haller N sayıdadır; herbir değerleyici her bir hal için k sayıda kategori sayısı verecektir. Eğer bir hal için iki değişik değerleyici aynı kategori sayısı vermişlerse, bu iki değerleyicinin uyuştuğunu gösterir; eğer kategori sayısı değişikse verilen kategori sayıları arasındaki farka dayanarak değişik derecede uyuşmazlık bulunur. Bu uyuşma ya rastgelelik sonucunda doğmuştur yahutta değerleyicilerin inanç ve davranışları birbirine benzemektedir. Fleiss'in kappa katsayısı tek bir hal için iki tane değerleyiciyi değil; n tane değerleyici tarafından N tane hal için yapılan değerlendirmelerle ilgilidir ve bu değerlendirmeler arasındaki uyuşmanın ne derecede rastgelelikten ayrıldığının sayısal ifadesidir.

Fleiss'in kappa katsayısı şöyle tanımlanmıştır:

\kappa = \frac{\bar{P} - \bar{P_e}}{1 - \bar{P_e}}

Burada 1 - \bar{P_e} faktorü rastgelelik ötesinde ne derece uyuşma olabilmesinin mümkün olduğunu gösterir; \bar{P} - \bar{P_e} gözümlenen gerçekte ne derecede rastgelelik ötesinde uyuşma derecesinin ortaya çıktığını açıklar.

Aşağıda Fleiss'in kappa katsayısını bulmak için hesaplar için örneğinde şu araştırma sorunu ele alınmaktadir:

Büyük bir psikiyatri kliniği olan bir hastanede 10 hasta için 14 tane doktor ve psikiyatrist tedavi için hastaları 5 kategoride değerlendirmektedirler. Her hasta için her doktor/psikiyatrist beş kategoriden birini seçmektedir. Bu değerlendirmeler bir tabloda aşağıda verilmiştir. Fleiss'in kappa katsayısı bulunup doktor/psikiyatristlerin değerlendirmelerinde kendi aralarında, şans eseri olmayan bir şekilde, ne ölçüde uyuştuklari incelenecektir.

Formüller[değiştir | kaynağı değiştir]

N değerlendirilecek hallerin sayısı; n toplam değerleyici sayısı ve k ise degerlemede kullanılacak kategori sayısı olsun. Haller i indeks sayısı ile belirlensin i=1,...,N; değer kategorileri j ile indekslensin j=1,...,k. nij i-inci hali j-inci kategoriye koyan değerleyiciyi temsil etmektedir.

  • Önce j-inci kategoriye koyulmuş değerlendirme oranı, p_{j} olarak, hesaplanır:

(1)

p_{j} = \frac{1}{N n} \sum_{i=1}^N n_{i j},\quad\quad 1 = \frac{1}{n} \sum_{j=1}^k n_{i j}
  • Sonra i-inci hal için değerleyicilerin ne derece uyuştuklarını gösteren P_{i}\,, hesaplanir:

(2)

P_{i} = \frac{1}{n(n - 1)} \sum_{j=1}^k n_{i j} (n_{i j} - 1)
      = \frac{1}{n(n - 1)} \left(\sum_{j=1}^k (n_{i j}^2 - n_{i j})\right)
      = \frac{1}{n(n - 1)} \left(\sum_{j=1}^k n_{i j}^2 - n\right)
  • Simdi P_i\,lerin ortalaması olan \bar{P} hesaplanır:

(3)

\bar{P} = \frac{1}{N} \sum_{i=1}^N P_{i}
       = \frac{1}{N n (n - 1)} \left(\sum_{i=1}^N \sum_{j=1}^k n_{i j}^2 - N n\right)
  • En son toplam ortalama \sum_{j=1}^k p_{j} ^2 olan \bar{P_e} hesaplanır:

(4)

\bar{P_e} = \sum_{j=1}^k p_{j} ^2
  • Sonuç olarak bunlar yukarıda verilen formüle konulup Fleiss'in kappa katsayısı bulunur:

(5)

\kappa = \frac{\bar{P} - \bar{P_e}}{1 - \bar{P_e}}

Fleiss'in kappa katsayisi için şu değerler hemen yorumlanır:

  • κ=1 : Tum değerleyiciler hep birlikte birbirine uyuşmaktadırlar.
  • κ=0 : Değerleyiciler aralarinda uyuşmalar sadece şans ile belirlenmiştir ve diğer hallerde hiçbir uyuşma yoktur.

Örneğin[değiştir | kaynağı değiştir]

Veri serisi[değiştir | kaynağı değiştir]

Bu orneginde 14 tane degerleyici (yani n=14), 10 sayida bir orneklem hallerini (yani N=10) degerlendirip 5 kategoriye (yani k=5) ayirmaktadirler. Asagida orneklem halleri satirlarda ve kategorilerde sutunlarda gosterilmistir. Burada kullanilan kutucizim girdileri ve hesap sonucları verilecektir:

1 2 3 4 5 P_i\,
1 0 0 0 0 14 1.000
2 0 2 6 4 2 0.253
3 0 0 3 5 6 0.308
4 0 3 9 2 0 0.440
5 2 2 8 1 1 0.330
6 7 7 0 0 0 0.462
7 3 2 6 3 0 0.242
8 2 5 3 2 2 0.176
9 6 5 2 1 0 0.286
10 0 2 2 3 7 0.286
Total 20 28 39 21 32
p_j\, 0.143 0.200 0.279 0.150 0.229
Örneğin için hesaplamalar için veriler tablosu

Veri ozetleri sunlardir: N = 10, n = 14, k = 5

Tum gozeler icin toplam = 140
P_{i}\, icin toplam= 3.780

Formül ve hesaplar[değiştir | kaynağı değiştir]

Birinci kategori sütunu toplamı için toplam orantı şöyle bulunur:

p_1 = \frac{(0+0+0+0+2+7+3+2+6+0)}{140} = 0.143

İkinci satır hali için toplam orantı şöyle bulunur:

P_2 = \frac{1}{14(14 - 1)} \left(0^2 + 2^2 + 6^2 + 4^2 + 2^2 - 14\right) = 0.253

\bar{P} değerini hesaplamak için, P_i toplamı bulunur:

~ = 1.000 + 0.253 + ... + 0.286 + 0.286 = 3.780

Tüm veri serisi ve hesaplama sayfası için

\bar{P} = \frac{1}{((10) ((14) (14 - 1)))}  \left((3.780) (14) (14-1)\right) = 0.378
\bar{P}_{e} = 0.143^2 + 0.200^2 + 0.279^2 + 0.150^2 + 0.229^2 = 0.210

Sonuç olarak Kappa formülü kullanılır:

\kappa = \frac{0.378 - 0.211}{1 - 0.211} = 0.211

Sonuç yorumlaması[değiştir | kaynağı değiştir]

Landis ve Koch (1977) [4] elde edilen \kappa değerlerini yorumlamak için şu tabloyu sunmuşlardır.

\kappa Yorum
< 0 Hiç uyuşma olmaması
0.0 — 0.20 Önemsiz uyuşma olması
0.21 — 0.40 Orta derecede uyuşma olması
0.41 — 0.60 Ekseriyetle uyuşma olması
0.61 — 0.80 Önemli derecede uyuşma olması
0.81 — 1.00 Neredeyse mükemmel uyuşma olması

Verilen örneğinde

\kappa = 0.211

bulunduğu için ancak orta dereceli bir uyuşma olduğu sonucu çıkarılabilir.

Ancak bu tabloda verilen yorumlar ve hatta verilen aralıklar hakkında istatistikçiler arasında anlaşmazlık vardır. Landis ve Koch yazılarında verdikleri aralıklar ve yorumlar için teorik delil vermemişlerdir ve bu ifadeler ancak birer şahsi inanç olarak kabul edilebilirler. Bazı istatistikçilere göre bu aralıklar ve yorumlar araştırmacılara zararlı olabilirler.[5] [6]. Bu aralıklar ve yorumlar araştırıcılara Kappa değerinin değişken kategori sayısından da (yani Cden) etkilendiği gerçeğini unutturabilir. Bilinmektedir ki kategori sayısı ne kadar küçük olursa kappa değeri de büyük olmaktadır.

İçsel kaynaklar[değiştir | kaynağı değiştir]

Vikikitap
Vikikitapta bu konu hakkında daha fazla bilgi var:

Referanslar[değiştir | kaynağı değiştir]

  1. ^ Fleiss,J.L.(1971) "Measuring nominal scale agreement among many raters." Psychological Bulletin, Cilt 76, Sayi 5 say. 378-382
  2. ^ * Scott, W. (1955). "Reliability of content analysis: The case of nominal scale coding." Public Opinion Quarterly, Cilt 19, Sayi 3, say.321-325
  3. ^ Cohen, J. (1960), A coefficient of agreement for nominal scales, Educational and Psychological Measurement Cilt 20, Sayi 1, say.37-46
  4. ^ Landis, J. R. ve Koch, G. G. (1977) "The measurement of observer agreement for categorical data" , Biometrics. Cilt. 33, say. 159-174
  5. ^ Gwet, K. (2001) Statistical Tables for Inter-Rater Agreement. (Gaithersburg : StatAxis Publishing)
  6. ^ Sim, J. and Wright, C. C. (2005) "The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements" in Physical Therapy. Cilt. 85, say. 257--268

Dışsal kaynaklar[değiştir | kaynağı değiştir]