Destek vektör makinesi: Revizyonlar arasındaki fark
[kontrol edilmiş revizyon] | [kontrol edilmiş revizyon] |
Değişiklik özeti yok |
Asimdemirag (mesaj | katkılar) k iki kaynak belirtildi Etiketler: Görsel Düzenleyici Yeni kullanıcı görevi |
||
2. satır: | 2. satır: | ||
{{Kaynaksız|tarih=Şubat 2017}} |
{{Kaynaksız|tarih=Şubat 2017}} |
||
{{Makine öğrenimi kutusu}} |
{{Makine öğrenimi kutusu}} |
||
'''Destek vektör makinesi''' (kısaca '''DVM'''), eğitim verilerindeki herhangi bir noktadan en uzak olan iki sınıf arasında bir [[karar sınırı]] bulan [[vektör uzayı]] tabanlı [[Makine öğrenmesi|makine öğrenme]] yöntemi olarak tanımlanabilir. |
'''Destek vektör makinesi''' (kısaca '''DVM'''), eğitim verilerindeki herhangi bir noktadan en uzak olan iki sınıf arasında bir [[karar sınırı]] bulan [[vektör uzayı]] tabanlı [[Makine öğrenmesi|makine öğrenme]] yöntemi olarak tanımlanabilir. <ref>{{Kitap kaynağı|url=https://www.worldcat.org/oclc/1039411838|başlık=LEARNING WITH KERNELS : support vector machines, regularization, optimization, and beyond.|tarih=2018|yer=[Place of publication not identified],|yayıncı=MIT Press|soyadı=SCHLKOPF, BERNHARD.|isbn=0-262-53657-9|oclc=1039411838}}</ref> |
||
== |
== |
||
24. satır: | 24. satır: | ||
== Çok sınıflı verinin DVM ile sınıflandırılması == |
== Çok sınıflı verinin DVM ile sınıflandırılması == |
||
Destek vektör makineleri daha çok iki sınıftan olusan (binary classification) veriyi ayırmada kullanılmaktadır, örneğin bir veri kümesindeki her bir veriyi kadın veya erkek olarak ayırmak. Buna karşın veriler bazen ikiden fazla sınıfa ait olabilirler bu gibi durumlarda temel DVM algoritması işlevsiz bir hale gelir. Örneğin farklı cinsten olan köpeklerin belli başlı özelliklerinin tutulduğu bir veri kümesinin bu özellikleri baz alarak sınıflandırılması gibi Golden Retriever, Siberian Husky, German Shepherd, Pug vb. |
Destek vektör makineleri daha çok iki sınıftan olusan (binary classification) veriyi ayırmada kullanılmaktadır, örneğin bir veri kümesindeki her bir veriyi kadın veya erkek olarak ayırmak. Buna karşın veriler bazen ikiden fazla sınıfa ait olabilirler bu gibi durumlarda temel DVM algoritması işlevsiz bir hale gelir. Örneğin farklı cinsten olan köpeklerin belli başlı özelliklerinin tutulduğu bir veri kümesinin bu özellikleri baz alarak sınıflandırılması gibi Golden Retriever, Siberian Husky, German Shepherd, Pug vb. <ref>{{Kitap kaynağı|url=https://www.worldcat.org/oclc/773925178|başlık=Computational intelligence paradigms in advanced pattern classification|erişimtarihi=|tarih=2012|dil=|sayfa=179|sayfalar=|çalışma=|yer=Berlin|yayıncı=Springer|diğerleri=Ogiela, Marek R., Jain, L. C.|isbn=978-3-642-24049-2|oclc=773925178}}</ref> |
||
=== Bire çok yaklaşım === |
=== Bire çok yaklaşım === |
||
34. satır: | 34. satır: | ||
<math display="block">f(x) = arg\max_{i} \Bigl(\sum_{j} f_{ij}(x)\Bigr)</math><math>x</math> girdi vektörü olmakla beraber <math>i</math> ve <math>j</math> sınıfları temsil etmektedirler. |
<math display="block">f(x) = arg\max_{i} \Bigl(\sum_{j} f_{ij}(x)\Bigr)</math><math>x</math> girdi vektörü olmakla beraber <math>i</math> ve <math>j</math> sınıfları temsil etmektedirler. |
||
{{Otorite kontrolü}} |
{{Otorite kontrolü}} |
||
== Kaynakça == |
|||
{{Kaynakça}} |
|||
[[Kategori:Veri madenciliği]] |
[[Kategori:Veri madenciliği]] |
Sayfanın 02.03, 9 Ocak 2021 tarihindeki hâli
Bu madde, Vikipedi biçem el kitabına uygun değildir. (Türkçe harfler girilmeli. (Temmuz 2018)) |
Bu madde hiçbir kaynak içermemektedir. (Şubat 2017) (Bu şablonun nasıl ve ne zaman kaldırılması gerektiğini öğrenin) |
Makine öğrenmesi ve veri madenciliği |
---|
Destek vektör makinesi (kısaca DVM), eğitim verilerindeki herhangi bir noktadan en uzak olan iki sınıf arasında bir karar sınırı bulan vektör uzayı tabanlı makine öğrenme yöntemi olarak tanımlanabilir. [1]
==
ile temsil edilen her girdi, D özelliğine sahip olsun ve sadece = -1 ya da +1 sınıflarından birine ait olsun, bu durumda tüm girdileri şöyle gösterebiliriz:
Doğrusal olmayan veri kümesinin DVM ile sınıflandırılması
Kernel yöntemleri
Veri kümesinin doğrusal olarak sınıflandırılması mümkün olmayan durumlarda, her bir verinin üst özellik uzayıyla eşlenmesi ve yine bu yeni uzayda bir hiper düzlem yardımıyla sınıflandırılması yöntemine verilen isimdir.
Radial Basis Function (RBF) Kernel
Çok terimli (Polinomial) Kernel
Çok sınıflı verinin DVM ile sınıflandırılması
Destek vektör makineleri daha çok iki sınıftan olusan (binary classification) veriyi ayırmada kullanılmaktadır, örneğin bir veri kümesindeki her bir veriyi kadın veya erkek olarak ayırmak. Buna karşın veriler bazen ikiden fazla sınıfa ait olabilirler bu gibi durumlarda temel DVM algoritması işlevsiz bir hale gelir. Örneğin farklı cinsten olan köpeklerin belli başlı özelliklerinin tutulduğu bir veri kümesinin bu özellikleri baz alarak sınıflandırılması gibi Golden Retriever, Siberian Husky, German Shepherd, Pug vb. [2]
Bire çok yaklaşım
Genel anlamda sınıf sayısı kadar DVM'nin birbirine füzyonuyla elde edilir. Her DVM çıkan her bir sınıfı diğer sınıflarla karşılaştırarak bir sonuca ulaşır. Eğer kadar sınıf varsa sayıda DVM eğitilerek bu DVM'lerin birbiriyle kıyaslanarak hangi sınıf için en güvenilir sonucun çıktığına bakılarak sınıflandırma yapılır. girdi vektörü olmakla beraber sınıfı temsil etmektedir.
Bire bir yaklaşım
Bire bir yönteminde her bir sınıf ikilisi için farklı bir DVM eğitilir ve eğitilen DVM'lerden hangi sınıfın en çok "+1" olarak sınıflandırıldığına bakılır ve böylece sınıflandırma işlemi gerçekleştirilir. Bu yöntem bire çok yöntemine göre hesaplama gücü yönünden oldukça "pahalı" bir yöntemdir. Bunun sebebi, eğer kadar sınıf varsa bu durumda sayıda DVM eğitilmesi gerekmesidir.
girdi vektörü olmakla beraber ve sınıfları temsil etmektedirler.
Kaynakça
- ^ SCHLKOPF, BERNHARD. (2018). LEARNING WITH KERNELS : support vector machines, regularization, optimization, and beyond. [Place of publication not identified],: MIT Press. ISBN 0-262-53657-9. OCLC 1039411838.
- ^ Computational intelligence paradigms in advanced pattern classification. Ogiela, Marek R., Jain, L. C. Berlin: Springer. 2012. s. 179. ISBN 978-3-642-24049-2. OCLC 773925178.