Regresyon analizi

Vikipedi, özgür ansiklopedi
Atla: kullan, ara

Regresyon analizi, iki ya da daha çok değişken arasındaki ilişkiyi ölçmek için kullanılan analiz metodudur. Eğer tek bir değişken kullanılarak analiz yapılıyorsa buna tek değişkenli regresyon, birden çok değişken kullanılıyorsa çok değişkenli regresyon analizi olarak isimlendirilir. Regresyon analizi ile değişkenler arasındaki ilişkinin varlığı, eğer ilişki var ise bunun gücü hakkında bilgi edilinebilinir. Regresyon terimi için öz Türkçe olarak bağlanım sözcüğü kullanilması teklif edilmiş ise de [1] Türk ekonometriciler arasında bu kullanım yaygın değildir.

Örneğin, bir ziraatçı buğday verimi ve gübre miktarı arasındaki ilişkiyi, bir mühendis, basınç ve sıcaklık, bir ekonomist gelir düzeyi ve tüketim harcamaları, bir eğitimci öğrencilerin devamsızlık gösterdiği gün sayıları ve başarı dereceleri arasındaki ilişkiyi bilmek isteyebilir. Regresyon, iki (ya da daha çok) değişken arasındaki doğrusal ilişkinin fonksiyonel şeklini, biri bağımlı diğeri bağımsız değişken olarak bir dogru denklemi olarak , göstermekle kalmaz, değişkenlerden birinin değeri bilindiğinde diğeri hakkında kestirim yapılmasını sağlar. Genellikle bu iki (veya cok) değişkenlerin hepsinin niceliksel olcekli olmasi zorunluluğu vardır.

Regresyonda, değişkenlerden biri bağımlı diğerleri bağımsız değişken olmalıdır. Buradaki mantık eşitliğin solunda yer alan değişkenin sağında yer alan değişkenlerden etkilenmesidir. Sağda yer alan değişkenlerse diğer değişkenlerden etkilenmemektedir. Burada etkilenmemek matematiksel anlamda bu değişkenleri bir doğrusal denkleme koyduğumuzda etki yapması anlamındadır. Çoklu doğrusallık, ardışık bağımlılık sorunları kastedilmemektedir.


Regresyon analizinin tarihi[değiştir | kaynağı değiştir]

Regresyon yönteminin ilk şekli en küçük kareler prensibidir ve ilk olarak Adrien Marie Legendre tarafından 1805de ortaya atılmıştır [2]. Hemen takiben 1809da C.F. Gauss [3] aynı yöntemi açıklamıştır. En küçük kareler terimi Legendre tarafından moindres carrés olarak kullanılmış, ancak Gauss aynı yöntemi 1795den beri kullandığını iddia etmiştir. Legendre ve Gauss bu yöntemi astronomik gözlemlerden uydularının güneş etrafındaki yörüngelerini tesbit etmek için kullanırken ortaya çıkartmışlardır. 1748de Eüler'in aynı problem üzerinde uğraştığı, fakat başarı sağlayamadığı bilinmektedir. En küçük kareler kuramınıda sonraki gelişme Gauss'in 1821de yayınladığı bir makelede ortaya çıkartılmış[4] ve bu yayında Gauss sonradan kendi adı verilen Gauss-Markov teoreminin bir şeklini açıklamıştır.

Regresyon terimi 19. yüzyılda İngiliz istatistikçisi Francis Galton tarafından bir biyolojik inceleme için ortaya atılmıştır. Bu incelemenin ana konusu kalıtım olup, aile içinde baba ve annenin boyu ile çocukların boyu arasındaki bağlantıyı araştırmakta ve çocukların boylarının bir nesil içinde eski ata nesillerinin ortalamasına geri döndüklerini yani bir nesil içinde ortalamaya geri dönüş olduğu inceleme konusudur. Galton geri dönüş terimi için ilk yazısında İngilizce olarak reversion terimi kullanmışsa da sonradan aynı anlamda olan regression sözcüğü kullanmıştır.[5];[6] Bu çalışmalarında Galton istatistiksel 'regresyon' kavramını ve yöntemini de geliştirmiştir. Udny Yüle ve Karl Pearson bu yöntemi daha geniş genel istatistiksel alanlara uygulayıp geliştirmişlerdir..[7][8]. Bu yazılarda bağımlı ve bağımsız değişkenlerin normal dağılım gösterdiği varsayılmaktadır. Bu kısıtlayıcı varsayım R.A. Fisher 1922 ve 1925de yayınlar ile sadece bağımlı değişkenin koşullu dağılımının normal olduğu hallere uygulanmak üzere daha genişletilmiştir.[9][10]).

Bu kavramları ve yöntemleri genel olarak, kalıtım konusu dışında "ortalamaya geri dönüş" ile hiçbir ilgisi olmayan konularda, kullanan istatistikçiler regresyon terimini kullanmakta devam etmişlerdir. Zamanımızda, bu terim, kavram ve yöntemin Galton'un konusu ile bütün ilişkisi yok olmuştur ve artık regresyon terimi doğrusal bağlantı bulunması ve eğri uydurma ile eş anlamlar vermektedir.

Temeldeki varsayımlar[değiştir | kaynağı değiştir]

Doğrusal regresyon yöntemini kullanmak için temelde şu varsayımların bulunduğu kabul edilmektedir:

  • Çıkarımsal yöntem olduğu için kullanılan iki değişkenli örneklemin ya istatistiksel rastgele örneklem olduğu ya da anakütleyi çok iyi temsil ettiği bilinmektedir.
  • Bağımlı değişken içinde hata bulunmaktadır. Bu hatanın bir rassal değişken olduğu ve ortalama hatanın sıfır olduğudur. Sistematik hata da bulunması mümkündür ama bu hatanın incelemeye alınması regresyon analizi kapsamı dışındadır.
  • Bağımsız değişken hatasızdır. Eğer bağımsız değişkende hata bulunduğu varsayılırsa özel bir yöntem şekli olan değişkenler-içinde-hata modeli teknikler kullanılarak model kurulmalıdır.
  • Hatalar zaman içinde ve kendi aralarında birbirine bağımlı değildir. Buna otokorelasyon veya serisel korelasyon bulunmaması varsayımı adı verilir.
  • Hata varyansı sabittir ve veriler arasında hiç değişmediği varsayılır. Bu eşvaryanslılık veya homoskedastisite varsayımı adı ile anılır. Eger bu varsayim uygun degilse ağırlıklı en küçük kareler yöntemi uygulanabilir.
  • Hataların varyans-kovaryans matrisinin çapraz elamanları sabit hata varyansı olur ve matrisin diğer çapraz dışı elemanları 0 olur.
  • Eğer çoklu regresyon analizi yapılıyor ve uc veya daha cok parametre icin kestirim isteniyorsa, bağımsız değişkenlerin birbirleri ile bağlantısının olmaması gereklidir. Buna çoklu doğrudaşlık (multicolliearity) olmaması varsayımı adı verilir.
  • Hatalar bir normal dağılım gösterir. Eğer bu hataların normalliği varsayımı uygun değilse genelleştirilmiş doğrusal model uygulanabilir.

Doğrusal regresyon[değiştir | kaynağı değiştir]

Anakütle doğrusal regresyon modeli[değiştir | kaynağı değiştir]

Doğrusal regresyonda, anakütle model belirlenmesine göre bağımlı değişken  y_i parametrelerin bir doğrusal birleşiği olur. Dikkat edilirse parametrelerden bahis edilmektedir, çünkü bağımsız değişkenlerin bir doğrusal bileşiği olması gerekli değildir. Örneğin, tek bir bağımsız değişkenli ( x_i ) ve iki parametreli (\beta_0 ve \beta_1):

dogru: y_i=\beta_0 +\beta_1 x_i +\epsilon_i,\ i=1,n\!

Burada \epsilon_i bir hata terimidir ve i alt-indeksleri bir belirlenmiş mümkün gözlemi ifade eder. Ayrıca \epsilon_i, i'nci gözlemin regresyon doğrusuna olan uzaklığını ifade etmekte olup ortalaması 0 ve varyansı \sigma^2 olan bir normal dağılış gösterir.

Çoklu doğrusal regresyonda iki veya daha çok sayıda bağımsız değişken veya bağımsız değişken fonksiyonu bulunur. Örneğin, önce verilmiş olan regresyon modeli yeni bir terim xi2 eklenerek degistirilirse; şu anakütle çoklu doğrusal regresyon modeli ortaya çıkar:

parabol: y_i=\beta_0 +\beta_1 x_i +\beta_2 x_i^2+\epsilon_i,\ i=1,m\!

Denklemin sağ tarafındaki bağımsız değişken için bir ikinci derece (kuadratik) ifade bulunmasına rağmen bu model hala doğrusal regresyon modelidir; çünkü üç tane parametre, yani \beta_0, \beta_1 ve \beta_2 ile çoklu değişkenli dogrusaldır.

Daha genel çoklu doğrusal regresyon modelinde p tane bağımsız değişken olduğu varsayılır ve anakütle modeli şöyle ifade edilir:

 y_i = \beta_0 + \beta_1 x_{1i} + \cdots + \beta_p x_{pi} + \varepsilon_i ,

veya biraz daha kısa olarak

y_i = \beta_0 + \sum_{j=1}^{p} X_{ij} \beta_j + \varepsilon_i

İki Değişkenli regresyon katsayı kestirimleri[değiştir | kaynağı değiştir]

Anakütleden bir rastgele örneklem elde edilirse, bu \beta_i anakütle parametreleri için örneklem tahminleri  \widehat{\beta}_i bulunur ve şu örneklem doğrusal regresyon denklemi elde edilir:

 y_i = \widehat{\beta}_0 + \widehat{\beta}_1 X_i + e_i

Burada  e_i terimi örneklemden elde edilen artık olur; ve

 e_i = y_i - \widehat{y}_i

olur.

Bu örneklem regresyon denkleminin kestirimini elde etmenin yöntemi adi en küçük kareler (Ordinary least squares) olarak adlandırılır. Bu yönteme göre parametre kestirimleri artıkların kare toplamının minimum (en küçük) değerini bulmakla elde edilir. Artıklar minimum toplamı AKT şudur:

AKT=\sum_{i=1}^{N}e_i^2

Bu fonksiyonun minimum değerini bulmak her parametre ile birinci kısımsal türevi alınarak sıfıra eşitlenir. Böylece her kısimsal türeve göre bir denklem elde edilir. Örneğin iki parametreli doğrusal regresyon için iki değişkenli iki denklem elde edilir. Bu simultane denklem sitemine normal denklemler adı verilir ve bu simultane denklemler sistemi birlikte çözülüp her anakütle parametresi için bir kestrim değeri bulunur.

İki parametreli basit doğrusal regresyon için iki anakütle parametre kestirimleri olan \widehat{\beta}_0, \widehat{\beta}_1 şu normal denklemlerin birlikte çözülmesi ile elde edilir:

\begin{array}{lcl}
m\  \alpha + \sum x_i\  \beta =\sum y_i \\
\sum x_i\  \alpha + \sum x_i^2\  \beta =\sum x_iy_i
\end{array}

Burada bütün toplamlar i=1 den i=n kadardır ve örneklem toplamları, toplam kareleri ve toplam karşı çarpımı ile elde edilirler.

Bu iki değiskenli iki doğrusal denklem için çeşitli çözüm yolları vardır. Burada Cramer'in kuralı kullanılıp şu ifade elde edilir:

\hat\beta = \frac {m \sum x_iy_i - \sum x_i \sum y_i} {\Delta}
=\frac{\sum(x_i-\bar{x})(y_i-\bar{y})}{\sum(x_i-\bar{x})^2}
\,
\hat\alpha = \frac {\sum x_i^2 \sum y_i - \sum x_i \sum x_iy_i} {\Delta}= \bar y-\bar x \hat\beta

burada

\Delta = m\sum x_i^2 - \left(\sum x_i\right)^2

Böylece iki parametreli doğrusal regresyon icin en küçük kareler parametre tahminleri için formüller şöyledir:

\widehat{\beta_1}=\frac{\sum(x_i-\bar{x})(y_i-\bar{y})}{\sum(x_i-\bar{x})^2} a

ve

\hat{\beta_0}=\bar{y}-\widehat{\beta_1}\bar{x}

Burada \bar{x} x gözlem degerlerinin ortalaması ve \bar{y} ise y gözlem değerlerinin ortalamasıdır.

Bir veri serisi için kırmızı noktalar) doğrusal regresyon.

Çok değişkenli regresyon katsayı kestirimleri[değiştir | kaynağı değiştir]

Çok değişkenli regresyon için regresyon katsyısı kestrimi de iki değişkenli regresyon hâli gibi en küçük kareler yöntemi ile yapılır. Bu demektir ki kestirmde ortaya çıkacak artıkların karelerinin toplamı minimize edilecektir. Artıklar ri olur ve minimize edilecek objektif fonksiyon soyle ifade edilir:

S=\sum_{i=1}^{m}r_i^2,

Her bir artık, gözlemi yapılan bir değer ile kestirim modelini kullanarak elde edilen bir kestirim değeri arasındaki farktır:

r_i = y_i-\sum_{j=1}^{n} X_{ij} \hat{\beta}_j

En küçük kareler yöntemine göre S, toplam artıklar karesi, minimize edilecektir. Belirli koşullar gecerli ise, elde edilecek parametre kestrimleri (Gauss-Markov teoremine göre) en küçük varyans gösteren kestirim ve hatta maksimum değişirlilik özelliği gösteren dogrusal kestirim olabilirler.

Anakütle regresyon katsayılarının kestirim regresyon katsayıları için bir ^ (şapka) notasyonu kullanılanılır: yani \hat \beta_i. Genellikle çok değişkenli regresyon için normal denklemler şöyle ifade edilir

\sum_{i=1}^{N}\sum_{p=1}^{p} X_{ij}X_{ik}\hat \beta_k=\sum_{i=1}^{N} X_{ij}y_i,\  j=1,p\,

Matris notasyonu kullanılırsa, normal denklemler şöyle yazılabilir:

\mathbf{\left(X^TX\right)\hat \boldsymbol \beta=X^Ty}

Eğer  X^TX matrisi singuler değilse

 \boldsymbol {\hat \beta} = \mathbf{\left(X^TX\right)^{-1} X^Ty},

Bu doğru uydurma tahminleridir.

Hatalar varyansı ve toplam kareler[değiştir | kaynağı değiştir]

Anakütle hatalarının normal dağılım gösterdiğine dair bir diğer varsayımı da kullanarak incelemeci önce hatalar varyansı ve toplam kareler değerlerini bulur ve bunları kullanarak tahmin edilen denklem ve parametreler uzerinde çıkarımsal istatistik sonuçlara varabilir.

Anakütle hata teriminin sabit bir varyansı bulunduğu varsayımına göre, hatalar varyansı kestirimi şöyle bulunur:

 \hat{\sigma_{\varepsilon}} = \sqrt{\frac{SSE}{N-2}}

Bu ifadeye regresyon için kare kök ortalama hata karesi adı verilir. Parametre kestirimleri için standart hata şöyle bulunur:

\hat\sigma_{\beta_0}=\hat\sigma_{\varepsilon} \sqrt{\frac{1}{N} + \frac{\bar{x}^2}{\sum(x_i-\bar x)^2}}
\hat\sigma_{\beta_1}=\hat\sigma_{\varepsilon} \sqrt{\frac{1}{\sum(x_i-\bar x)^2}}

Örneklem veri serisinin değişebilirliği değişik toplam kareler suretiyle ifade edilebilirler.

  • Tüm toplam kareler (örneklem varyansına orantılı olur):
SS_{\rm tot}=\sum_i (y_i-\bar{y})^2.
  • Regresyon toplam kareler: Bazan açıklanan toplam kareler diye anılır.
SS_{\rm reg}=\sum_i ({f_i}-\bar{f})^2
  • Toplam hatalar karesi: Artıklar toplam karesi olarak da isimlendirilir.
SS_{\rm err}=\sum_i (y_i - f_i)^2\,

Bir regresyon modeli için parametreler, en küçük kareler yöntemi kullanılarak, tahmin edildikten sonra regresyon kontrol etme yöntemleri (yani çıkarımsal kontrol) uygulamak gerekir. Bunlar bulunan tahmin edilmiş genel doğrusal denklemin örnekleme uyum iyiliği sınaması ve kestirimci regresyon katsayılarının tektek istatistiksel anlamlılığını sınamak veya güvenlik aralığı sağlamak olarak özetlenir.

Kestirim denklemin genel uyum iyiliğinin çıkarımsal kontrolu[değiştir | kaynağı değiştir]

Tahmin edilen doğrusal regresyon denkleminin genel olarak örnekleme uygun olup olmadığı için uygulanan çıkarımsal istatistik işlemleri iki türde olabilir:

Bu iki çıkarımsal kontrol aynı konunun çıkarımsal kontrolu için kullanılır: tahmin regresyon denkleminin tümünün uygun olup olmadığı. Bu nedenle iki yöntemden tek birini kullanmak yeterlidir. Buna rağmen birçok pratik analizde her iki çıkarımsal analiz de kullanılmaktadır; çünkü ikisinde hesaplanması için nerede ise aynı yöntem kullanılır ve eger istatistik veya ekonometrik kompüter paketi kullanılırsa her iki yöntem için gerekli sonuçlar birlikte verilir.

Belirleme katsayısı yani R-kare (R2) değeri[değiştir | kaynağı değiştir]

Belirleme katsayısı yani (R2) ) R-kare) için en genel tanımlama förmülü sudur:

R^{2} \equiv 1-{SS_{\rm err}\over SS_{\rm tot}}.

yani (1-toplam hatalar karesi) ile (tüm toplam kareler) oranı; veya (1-Artıklar toplam karesi) ile (tüm toplam kareler) oranı.

Çıkarımsal analizde R-kare değeri bulunur ve bulunan değer doğru hesaplanmışsa 0 ile 1 arasında olmalıdır. Yapılan bu analiz ceşitli hallerde açıklanabilir:

  • Eğer sadece iki değiskenli (Y ve X0) regresyon analizi yapılıyorsa, geometrik olarak X-Y düzeyinde doğrusal regresyon tahmini bu düzeyde olan noktalara en-küçük-kareler prensibine göre en iyi uyan bir doğru uydurmaktır. Eğer bütün noktalar bu tahmin edilen doğru üzerinde ise tahmin edilen doğru uyumu bu veri noktaları için hiç hatasızdır ve veri noktalari doğrudan hiç ayrılık göstermez. Hat varyasyonu bu halde sıfır olur. Bu veri noktaları tahmin edilen doğrudan uzaklaştıkca hatalar varyasyonu çoğalmaktadır.
  • Üç değişkenli (Y ve X1 ve X2 değişkenli) çoklu regresyonda ise tahmin edilen bir üç boyutlu düzeydir. Eger bu düzey veri noktalarına tam olarak uyarsa bütün veri noktaları tahmin edilen düzey üstüne düşerler. Veri noktaları tahmin edilen düzey etrafında dağılmaya başlarlarsa, hatalar varyasyonu artmaya başlar.
  • Üç değişkenden daha çoklu değişkenli regresyon analizi ise grafik olarak verilemez; çok boyutlu uzayı gösterir ve tahmin edilen regresyon katsayıları ise bu cok boyutlu uzayda bir hiper-düzey ortaya çıkartır ve bu hiper-düzeyden ayrılmalar hata varyasyonudur.

Genel olarak:

    • Eğer R2 değeri sıfıra yakınsa, uyum iyiliği uygun olmadığı kabul edilir. Bu sonuc ortaya cikarsa toplanan verilere kullanilan modelin uygun olmadigi sonucu cikarilir ve bu uygunsuzluk modelinin degistirilmesini gerektirir. Bu demektir ki model ile aciklanan varyasyon tum varyansyonu %0ini aciklamakta ve geometrik olarak orneklem verileri regresyon ile elde edilen hiperduzeyin etrafina cok dagilmis olarak bulunmaktadirlar. Bu cikarima varilirsa bu basamaga kadar yapilmis olan analizin bir kenara birakilmasi ve diger bir modelin bulunup kullanilmasi gerekir.
    • Eğer R2 değeri bire yakınsa, uyum iyiliği uygun olduğu sonucu çıkarılır. Geometrik olarak cok degisken boyutlu uzayda, orneklem veri noktalarinin hepsi uzayda dagilma gostermeyip hemen hepsi regresyon ile elde edilen hiperduzey uzerinde bulunmaktadir. Bu halde çıkarımsal kontrol analizinin diğer basamağına geçilir.

F-testi[değiştir | kaynağı değiştir]

Regresyon denklem uyum iyiliği için F-testi için sıfır hipotez (H0) anakutle model katsayilarinin hepsinin degerinin 0a esit oldugudur. Yani sifir hipotez gercekse hesap ile elde edilen katsayi kestirimlerinin hepsi anakütle için 0dir yani hiçbir etki ve bağlantı anlamı vermez. Bu basamaga kadar yapilmis olan analizin bir kenara birakilmasi ve diger bir modelin bulunup kullanilmasi gerekir. Eğer sıfır hipotez red edilirse regresyon kestirimleri genellikle uygundur ve cikarimsal kontrol analizine devam edilir.


Kestirimi yapılan her tek regresyon parametresinin değerinin çıkarımsal kontrolu[değiştir | kaynağı değiştir]

Yani bu tahmin edilmiş standart hataları kullanarak her tek anakütle regresyon parametresi hakkında kestirim güvenlik aralıkları kurabilir ve hipotez sınamaları yapılabilir.

İnterpolasyon ve ekstrapolasyon[değiştir | kaynağı değiştir]

Regresyon modelleri kullanarak kestirim yapılmak istenirse, bağımsız değişken olan x değişken veri değerleri verilirse bağımlı değişken y için kestrim değerleri (f_i) tahmin etmek icin kullanabilirler.

Eğer bu kestirim, modeli kurmak için kullanılan x değişken değerleri için yapılıyorsa, bu işlem interpolasyon olarak adlandırılır. Eğer kestirim modeli kurmak için kullanılan bağımsız değişken değerlerinin dışındaki değerler ile yapılırsa, ekstrapolasyon olarak adlandırılır ve ekstrapolasyon çok daha yanlı olabilir.

Diğer yaklaşımlar[değiştir | kaynağı değiştir]

Ağırlıklı en küçük kareler yöntemi[değiştir | kaynağı değiştir]

En küçük kareler yontemi kullanılırken yapılan temel varsayımlarindan biri hata terimi varyanslarının birbirine esit olduğudur. Eğer gozlem hataları birbirine esit olmayan hata terimi varyanslari gosteriyorlarsa, en küçük kareler yonteminin bu onemli varsayımı ihlal edilmis olur ve en küçük kareler yontemi ile elde edilen regresyon kestirimleri anlamlı olmayabilir. Bu sorunu cozumlemek icin her gozleme ayrı agırlık vererek en küçük kareler yontemi uygulamak imkânı vardır ve bu genellestirmeye ağırlıklı en küçük kareler adı verilir. Ağırlıklı En Küçük Kareler Yöntemi,değişkenlere ağırlık vererek veya değişkenlerin önem derecesini değiştirerek uygulanan en küçük kareler yöntemidir.

Değişkenlerde-hatalar modeli[değiştir | kaynağı değiştir]

En küçük kareler yontemi kullanılırken yapılan temel varsayımlarından biri de gozlem hatalarının yalnizca bağımlı değiskenlerde yapıldığı ve bağımsız değiskende gozlem hatası bulunmadığıdır. Eğer bağımlı değiskende hata bulundugu ve bunun elde edilen regresyon kestirim değerlerine cok etki yaptıgı bilinirse, degiskenlerde-hatalar-modeli veya diğer ismi ile total en kucuk kareler modeli ve bu modelle iliskili kestirim yontemleri kullanılabilir.

Genelleştirilmiş doğrusal model[değiştir | kaynağı değiştir]

Eğer anakütle regresyon modeli icindeki hatalar icin olasılık dağılım fonksiyonu bir normal dağılım gostermiyorsa genelleştirilmiş doğrusal model kullanılabilir. Bu halde hatalarin olasılık dağılım fonksiyonu ussel dağılım, gamma dağılımı, ters Gauss tipi dağılım, Poisson dağılımı, binom dağılım, multinom dağılım vb. olabilir.

Güçlü regresyon[değiştir | kaynağı değiştir]

Ayrık bağımlı değişken[değiştir | kaynağı değiştir]

Doğrusal olmayan regresyon[değiştir | kaynağı değiştir]

Eger degiskenler hakkinda kutrulan teori dolayisiyla anakutle modeli parametrelri ile dogrusal degilse, kestirim yapilirken toplam kareleri tekrarlama usulu kullanarak minimize edilmesi gerekir. Bu kullanilan tekrarlama yontemi bir cok karisik sorunlar ortaya cikarir. Bunlarain ozet olarak incelemsi icin doğrusal olmayan regresyon#Dogrusal olmayan ve dogrusal en kucuk kareler arasindaki farklar maddesine bakiniz.

İçsel kaynaklar[değiştir | kaynağı değiştir]

Kaynakça[değiştir | kaynağı değiştir]

  1. ^ D.Gucarati (çev. Ümit Şenesen), Temel Ekonometri
  2. ^ A.M. Legendre (1805), Nouvelles méthodeş pour la détermination des orbites des comètes. “Sur la Méthode des moindres quarrés” bir ek bölümde bulunur.
  3. ^ C.F. Gauss (1809), Theoria Motus Corporum Coeleştium in Sectionibüs Conicis Şölem Ambientum.
  4. ^ C.F. Gauss (1821/1823). Theoria çombinationis observationum erroribüs minimiş obnoxiae.
  5. ^ Francis Galton (1877), "Typical laws of heredity", Nature 15, 492-495, 512-514, 532-533. (Galton burada bezelyelerle yaptığı kalıtım deneyi sonucunda reversion terimi kullanır.)
  6. ^ Francis Galton (1885) Presidential address, Section H, Anthropology.(Burada insanlarin boylari uzerinde yaptigi arastirma sonucu icin "regression" terimi kullanir.)
  7. ^ G. Udny Yule (1897) "On the Theory of Correlation", J. Royal Statist. Soç., 1897, p. 812-54.
  8. ^ Karl Pearson, G.U.Yüle, Norman Blanchard, and Alice Lee (1903). "The Law of Ancestral Heredity", Biometrika
  9. ^ R.A. Fisher (1922), "The goodness of fit of regression formulae, and the distribution of regression çoefficients", J. Royal Statist. Soç., 85, 597-612
  10. ^ R.A. Fisher (1925),Statistical Methods för Research Workers

Bibliyografya[değiştir | kaynağı değiştir]

  • Gujarati, Damodar (çev. Ümit Şenesen, Gülay Günlük Şenesen) (2008) Temel Ekonometri, Literatür Yayınları ISBN 975-7860-99-9.
  • Audi, R., Ed. (1996). "Curve fitting problem," The Cambridge Dictionary of Philosophy. Cambridge, Cambridge University Press. pp. 172–173. (İngilizce)
  • William H. Kruskal and Judith M. Tanur, ed. (1978), "Linear Hypotheses," International Encyclopedia of Statistics. Free Press, cilt 1 (İngilizce)
Evan J. Williams, "I. Regression," say. 523-41.
Julian C. Stanley, "II. Analysis of Variance," pp. 541-554.
  • Lindley, D.V. (1987). "Regression and correlation analysis," New Palgrave: A Dictionary of Economics, Cilt. 4, say. 120-23. (İngilizce)
  • Birkes, David and Yadolah Dodge, Alternative Methods of Regression. ISBN 0-471-56881-3 (İngilizce)
  • Chatfield, C. (1993) "Calculating Interval Forecasts," Journal of Business and Economic Statistics, 11. pp. 121–135. (İngilizce)
  • Dinçer, F. Regresyon Kelimesinin Tarihi, http://blog.milliyet.com.tr/Blog.aspx?BlogNo=108959
  • Draper, N.R. ve Smith, H. (1998).Applied Regression Analysis Wiley Series in Probability and Statistics (İngilizce)
  • Fox, J. (1997). Applied Regression Analysis, Linear Models and Related Methods. Sage (İngilizce)
  • Hardle, W., Applied Nonparametric Regression (1990), ISBN 0-521-42950-1 (İngilizce)
  • Meade, N. ve T. Islam (1995) "Prediction Intervals for Growth Curve Forecasts," Journal of Forecasting, 14, say. 413-430. (İngilizce)
  • Munro, Barbara Hazard (2005) "Statistical Methods for Health Care Research 5th ed." Lippincott Williams & Wilkins, (İngilizce)
  • Sykes, A.O. "An Introduction to Regression Analysis" (Innaugural Coase Lecture)
  • Kotsiantis,S., Kanellopoulos,D. ve Pintelas,P. (2006) "Local Additive Regression of Decision Stumps", Lecture Notes in Artificial Intelligence, Springer-Verlag, Vol. 3955, SETN 2006, say.. 148 – 157 (İngilizce)
  • Kotsiantis,S. ve Pintelas, P. (2005) "Selective Averaging of Regression Models", Annals of Mathematics, Computing & TeleInformatics, Cilt 1, No 3, say. 66-75 (İngilizce)

Dış bağlantılar[değiştir | kaynağı değiştir]