İçeriğe atla

Yapay zeka çalışmalarına ilişkin açık mektup

Vikipedi, özgür ansiklopedi

Yapay zeka çalışmalarına ara verin: Açık mektup[değiştir | kaynağı değiştir]

Açık Mektup Future of Life Enstitüsü’nün 2023 yılında yayınladığı bir bildiridir. Yapay zeka çalışmalarının önemli boyutta gelişmesi sonucunda bu çalışmaların geleceği hakkındaki endişeleri dile getirir ve yapay zeka konusunda araştırma yapan kişi ve kurumları çalışmalarını altı aylığına durdurmaya davet eder. Mektubun imzacıları arasında Elon Musk da bulunmaktadır. Mektup  yapay zekânın gelişimiyle ilgili etik kuralların ve güvenlik önlemlerinin oluşturulması gerekliliğine vurgu yapar ve  insanlığın karşı karşıya olduğu potansiyel risklere dikkat çekerek, yapay zeka teknolojisinin kontrollü bir şekilde geliştirilmesi gerektiğini savunur. Bu açık mektup, yapay zeka alanındaki gelişmelerin etik ve sosyal sonuçlarına odaklanarak, bilim insanlarını, şirketleri ve hükûmetleri eyleme geçmeye çağırır. Yapay zekânın etik, güvenlik ve etkileri konularında farkındalık yaratmayı amaçlıyor ve gelecekteki yaşamın şekillendirilmesinde, yapay zeka teknolojisinin sürdürülebilir ve insancıl bir şekilde ilerlemesi gerektiğine dair önemli bir uyarı niteliği taşıyor.[1]

Mektubun arka planı[değiştir | kaynağı değiştir]

Mektup OpenAI adlı şirketin büyük dil modeli GPT-4’ü kamuya duyurmasından bir hafta sonra yayımlanmıştır. Mektubu hazırlayanlara göre, güçlü YZ sistemlerinin geliştirilmesine devam etmeden önce risklerin yönetilebilirliğinden emin olunmalıydı. Bu nedenle, tüm YZ laboratuvarlarına GPT-4’ten daha güçlü teknolojiler geliştirmeden önce en az altı aylık bir ara verme çağrısı yapılıyor. Mektubun yazarları bu altı aylık aranın, dış uzmanlar tarafından titizlikle denetlenen ve gözetilen ileri düzeyde YZ’ lar için gerekli güvenlik protokollerini ortaklaşa geliştirmek ve uygulamak için kullanılması taraftarıydı. Mektupta bu adımın genel olarak YZ’nin gelişiminde bir duraklama anlamına gelmediği, sadece öngörülemez kara kutu modellerine yönelik tehlikeli yarıştan geri adım atılması anlamına geldiği belirtiliyordu. Ayrıca doğruluk, şeffaflık ve yorumlanabilirlik vurgusu yapılıyor. Bu bağlamda, Mart 2014'te kurucularının MIT profesörü kozmolog Max Tegmark ve Bilgisayar programcısı Jaan Tallinn‘ nin olduğu "Geleceğin Yaşamı Enstitüsü" adlı kuruluşun yapay zeka çalışmalarına bir ara verilmesi çağrısında bulunuyorlar.[2]

İmzacılar[değiştir | kaynağı değiştir]

İmzacılar arasında Yoshua Bengio, Stuart J. Russell, Gary Fred Marcus gibi YZ dünyasının önemli isimlerinin yanında Elon Musk, Steve Wozniak, Yuval Noah Harari, Daron Acemoğlu gibi isimler de var. Mektupta YZ sistemlerinin artık genel görevlerde insanlarla rekabet edebilir hale geldiğine dikkat çekiliyor ve şu sorular soruluyor:

Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?

Tatmin edici olanlar da dahil, tüm işleri otomatikleştirmeli miyiz?

Eninde sonunda bizi geçebilecek ve yerimizi alabilecek zihinler geliştirmeli miyiz?

Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz?

Mektubun başında değinilen Asilomar YZ İlkeleri’nin temeli 2017 yılında Future of Life Institute tarafından Asilomar Conference on Beneficial AI ismiyle ABD’nin California eyaletinde düzenlenen kongrede atılmıştır. Bu kongreye birçok ünlü biliminsanı (Hawking, Musk, Norvig, Russell, Kurzweil vs) katılarak görüşlerini sunmuştur. Bu kongrenin neticesinde Asimov Kanunları’ güncellenmiş ve 23 maddelik yeni bir Yapay Zeka İlkeleri meydana getirilmiştir.[2][3]

Mektupta dile getirilen sorular[değiştir | kaynağı değiştir]

Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?

Musk ve diğer imza sahipleri, basitçe “Devasa Yapay Zekâ Deneylerini Duraklat” başlıklı açık mektuplarında “Güçlü yapay zekâ sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir.” iddiasında bulunmaktadır. Musk ve diğer imza sahipleri bilginin önce şeffaf ve güvenli bir şekilde teyit edilmesi gerektiğini vurgulamaktadır. Future of Life’ın yayınladığı son haber derlemelerinde deepfake ile ilgili “Bu hikayeleri aklımızda tutarak, deepfake'leri tedarik zincirlerinin her seviyesinde anlamlı bir şekilde ele alma ihtiyacını vurguluyoruz: rızaya dayalı olmayan deepfake'lerin oluşturulmasını ve yayılmasını yasaklamak ve görüntü oluşturma programlarının arkasındaki geliştiricileri ve dağıtımcıları zararlardan sorumlu tutmak.” Görüşlerini bu şekilde aktarmışlar. FLI’nın genel görüşünde, yapay zekanın bilgi ekosistemimize olan etkisinin dikkatle yönetilmesi gerektiği savunulmaktadır. Gerekçeyi de yanlış bilgi ve propaganda yayılımı, toplumsal güveni zedelemesi ve demokratik süreçleri olumsuz etkilemesi olarak göstermektedir. Ek olarak etkin düzenleme ve denetim mekanizmalarının geliştirilmesiönerisinde bulunmaktadır. Bu konuda FLI kurucuları ve uzmanlarının görüşlerini de aktarmak doğru olacaktır. Max Tegmark Yapay zekanın bilgi üretimindeki rolünün dikkatlice kontrol edilmesi gerektiğini savunmaktadır ve YZ'nin potansiyel olarak yanlış bilgi yayma kapasitesinin yüksek olması gerekçesine dayandırır. Eğitim ve farkındalık kampanyaları, yanıltıcı bilgilere karşı daha dirençli bir toplum yaratmanın önemini de vurgulamaktadır. Stuart J. Russell , Yapay zekâ sistemlerinin şeffaf ve hesap verebilir olması gerektiği görüşündedir. Yanıltıcı bilgiler ve propaganda, YZ sistemlerinin kara kutu doğası nedeniyle daha da tehlikeli hale gelmesi gerekçesiyle; YZ algoritmalarının denetimi ve bağımsız denetim kuruluşlarının oluşturulması önerisinde bulunur. Bu görüşler, makinelerin bilgi kanallarımızı propaganda ve yanlış bilgilerle doldurmasına izin verilmemesi gerektiği yönünde birleşiyor. Ortak tema, yapay zekanın denetim altında tutulması ve doğru bilgi akışının sağlanması için çeşitli stratejilerin ve düzenlemelerin uygulanması gerektiği yönünde.[4]

Tatmin edici olanlar da dahil, tüm işleri otomatikleştirmeli miyiz?

Max Tegmark, Benefits & Risks of Artificial Intelligence adlı mektupta “Uygarlık hakkında sevdiğimiz her şey zekanın bir ürünüdür, bu nedenle insan zekamızı yapay zeka ile güçlendirmek, teknolojiyi faydalı tutmayı başardığımız sürece, uygarlığın daha önce hiç olmadığı kadar gelişmesine yardımcı olma potansiyeline sahiptir.” değinilmiştir. The Year of Fake bildirisinde tüm işleri otomatikleştirmenin toplum üzerindeki potansiyel etkileri ele alınıyor. Otomasyonun verimlilik ve üretkenlik açısından büyük faydalar sağlayabileceği kabul edilmekle birlikte, bunun toplumsal ve bireysel düzeyde yaratabileceği olumsuz etkiler de değerlendiriliyor. Bazı uzmanlar, tatmin edici işler de dahil olmak üzere tüm işlerin otomatikleştirilmesinin, insanların daha yaratıcı ve anlamlı faaliyetlere odaklanmalarına olanak tanıyabileceğini savunmakla beraber bunun gerekçe olarak otomasyonun, insanların tekrar eden ve rutin işlerden kurtulmasını sağlayarak, daha fazla boş zaman ve yaratıcı faaliyetlere yönelme fırsatı sunabileceğini göstermektedirler. Bu duruma karşı olan diğer uzmanlar ise tatmin edici işlerin otomatikleştirilmesinin, insanların işlerinden aldıkları manevi tatmini ve kimlik duygusunu kaybetmelerine yol açabileceğini savunuyor. Dr. Max Tegmark, tüm işleri otomatikleştirmek yerine, insanların yaratıcı ve anlamlı işler yapmasına olanak tanıyan bir denge bulunmalı görüşünü savunmaktadır. Stuart J. Russell, otomasyonun etik sınırlar içinde kalması ve insanların refahını artırması gerektiğini savunuyor. Marietje Schaake, dijitalleşme ve otomasyon, insan iş gücünün yerini alırken, toplumsal adaleti gözeten bir yaklaşımla yönetilmelidir demektedir. Bu görüşler, otomasyonun yönetilmesi gereken karmaşık ve çok boyutlu bir süreç olduğunu ortaya koyuyor. Uzmanlar, otomasyonun faydalarını kabul etmekle birlikte, bu süreçte insan refahı, iş tatmini ve toplumsal adaletin korunması gerektiğini vurguluyorlar. Otomasyonun insan yaşamı üzerindeki etkilerini dengelemek için çeşitli stratejiler ve politikalar öneriliyor.[4]

Eninde sonunda bizi geçebilecek ve yerimizi alabilecek zihinler geliştirmeli miyiz?

Future of Life Institute, güçlü ve otonom yapay zeka sistemlerinin geliştirilmesi konusunda dikkatli olunması gerektiğini vurgulamaktadır. Bu sistemlerin insan kontrolünden çıkma riski taşıdığına ve bu nedenle etik ve güvenlik önlemlerinin alınmasının şart olduğuna dikkat çekmektedir. Sonuç olarak FLI' nın duruşu, gelişmiş yapay zekâ sistemlerinin geliştirilmesine devam edilmesi gerektiğini, ancak bunun güvenlik, düzenleme ve etik kurallarla sıkı bir şekilde denetlenmesi gerektiğini savunmaktadır. İnsan zekasını aşabilecek ve yerimizi alabilecek sistemler yaratma konusunda temkinli olunması gerektiğini ve bu süreçte sorumluluk sahibi bir yaklaşım benimsenmesi gerektiğini belirtmektedirler.[5]

Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz?

Geleceğin yaşamı entütisinin resmi sayfasında zekanın kontrolü mümkün kıldığı ve: ''İnsanlığın daha güçlü olduğunu değil, daha akıllı oldukları için kontrole sahip olduklarını belirtiyorlar ve ‘’eğer gezegenimizdeki en akıllı konumumuzdan vazgeçersek, kontrolü de bırakmamızın mümkün olduğu’’ şeklinde ifadeye yer veriyorlar.[6]

Mektuba tepkiler nasıl oldu[değiştir | kaynağı değiştir]

Mektup hem sosyal medyada hem de araştırmacı çevrelerde geniş yankı buldu. Mektubun yayınlanması sadece kamu düzeyinde değil, aynı zamanda yapay zeka konusunda önde gelen araştırmacılar, iş dünyası liderleri ve politika yapıcılar arasında yüksek güçlü yapay zeka sistemlerinin risklerine ilişkin gizli bir endişeyi dile getirdiği fikrini pekiştirdi. Mektup yazıldığı an itibariyle 1800'ün üzerinde CEO ve 1500'ün üzerinde profesör tarafından imzalandı.

İmzacıların durumu nedir[değiştir | kaynağı değiştir]

Future of Life Enstitüsü’nün bir sözcüsü, OpenAI CEO’su Sam Altman’ın mektubu imzalamadığını söyledi. Karşıtlar mektupta “Yapay zeka reklamı yapıldığını ve teknolojinin şu andaki potansiyelinin aşırı derecede abartıldığını” söylüyor. Umea Üniversitesi’nden yapay zeka araştırmacısı Johanna Björklund, “Bu tür açıklamalar tantanayı büyütmek için, insanları kaygılandırmak için yapılıyor. Bence el frenini çekmeye gerek yok” dedi .Johanna Björklund, araştırmalara ara vermek yerine, yapay zeka araştırmacılarının daha sıkı şeffaflık önlemlerine tabi olması gerektiğini belirtti ve “Yapay zeka araştırması yapıyorsanız, bunu nasıl yaptığınız konusunda daha şeffaf olmalısınız” diye ekledi.[7]

Eleştiriler[değiştir | kaynağı değiştir]

İmzacılar, günümüzün gelişmiş yapay zeka sistemlerinin karmaşıklıkları ve aceleci dağıtımları nedeniyle doğrudan neden olabileceği çeşitli sorunlarla ilgili önemli endişelerini dile getirdi. Bu sorunlar, ister kasıtsız ister insan manipülasyonundan kaynaklansın, öngörülemeyen veya istenmeyen model davranışlarından kaynaklanır. Uzmanlar, günümüzün sistemlerinin, birçok kişinin yapay zeka tarafından üretilen yanlış bilgilere inanmasına yol açabilecek oldukça ikna edici yalanlar ürettiğini belirtti. Dahası, yapay zeka odaklı algoritmalar kârı maksimize eden içeriğe öncelik verdiği için bu sistemler insan kaynaklı yanlış bilgilerin yayılmasına da yardımcı olabilir. Görüşülen kişiler, bu tür algoritmaların siyasi motivasyonlu manipülasyon kampanyalarına karşı oldukça duyarlı olduğunu hissettiler.[8]

Kamuoyuna: Dikkat Edin[değiştir | kaynağı değiştir]

İmzacılar, kamuoyu algısı ile yapay zekanın gerçek durumu arasındaki boşluğu doldurmaya çalıştı. Birçoğu, ana akım anlayışın sıklıkla çarpıtıldığını, yapay zekanın ya varoluşsal bir tehdit ya da tüm sorunlara mucizevi bir çözüm olarak çerçevelendiğini hissetti. Açık mektubun söylemi ateşleyeceğini ve teknolojinin yeteneği, potansiyeli ve riskine ilişkin kamuoyunun daha doğru anlaşılmasına katkıda bulunacağını umduklarını belirttiler. BCS, Chartered IT Institute for IT, profesyonel teknoloji uzmanları topluluğunu yapay zekadaki ortak teknik ve etik uygulama standartları arkasında birleştirmeyi amaçlayarak, yapay zekanın sağlık hizmetlerinden işyerine kadar hayatın her alanını dönüştüren bir güç olabileceğini bu nedenle, Birleşik Krallığı’n, yapay zekanın sorumlu bir şekilde ve toplumun yararına olacak şekilde büyümesine liderlik etmesi ve uluslararası standartların uygulanmasına yardımcı olması gerektiğini vurgulamaktalar. Bu ifadeler, yapay zekanın insanlık için bir tehdit olmadığını, doğru yönetilmesi halinde faydalı olabileceğini gösteriyor.[8][9][10]

Kaynakça[değiştir | kaynağı değiştir]

  1. ^ Ufuk Tarhan (2 Nisan 2023). "Açık mektup; yapay zeka çalışmalarına ara verin!." 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  2. ^ a b "Yapay Zeka Etiği ile Göz Boyama". 4 Ekim 2023. 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  3. ^ Dr. Müslüm Fincan (14 Ocak 2020). "Asilomar Yapay Zeka İlkeleri". 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  4. ^ a b Maggie Munro (2 Şubat 2024). "Future of Life Institute Newsletter: The Year of Fake" (İngilizce). 2 Mayıs 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  5. ^ Maggie Munro (2 Nisan 2024). "Future of Life Institute Newsletter: A pause didn't happen. So what did?" (İngilizce). 2 Mayıs 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  6. ^ "Pause Giant AI Experiments: An Open Letter" (İngilizce). 22 Mart 2023. 8 Eylül 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  7. ^ "Teknoloji sektöründen çağrı: Yapay zeka araştırmalarına, güvenlik önlemleri alınana dek ara verilsin". 29 Mart 2023. 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  8. ^ a b Isabella Struckman, Sofie Kupiec (17 Temmuz 2023). "Why They're Worried" (İngilizce). 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  9. ^ "Sign our open letter on the future of AI". 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024. 
  10. ^ Andrew Griffin (22 Temmuz 2023). "Yüzlerce uzmandan açık mektup: "Yapay zeka bizi yok etmeyecek"". 6 Haziran 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Nisan 2024.