Yapay genel zekadan kaynaklanan varoluşsal risk: Revizyonlar arasındaki fark

Vikipedi, özgür ansiklopedi
İçerik silindi İçerik eklendi
Aloste98 (mesaj | katkılar)
"Existential risk from artificial general intelligence" sayfasının çevrilmesiyle oluşturuldu.
Etiketler: İçerik Çevirmeni İçerik Çevirmeni 2
(Fark yok)

Sayfanın 19.22, 20 Şubat 2024 tarihindeki hâli


Yapay genel zekadan kaynaklanan varoluşsal risk, yapay genel zekadaki önemli ilerlemenin insan neslinin tükenmesine veya geri dönüşü olmayan küresel felakete yol açabileceği fikridir. [1] [2] [3]

Bir argüman şu şekildedir: insanoğlu diğer türlere hükmetmektedir çünkü insan beyni diğer hayvanlarda bulunmayan ayırt edici yeteneklere sahiptir. Eğer yapay zeka genel zeka bakımından insanlığı aşar ve süper zeka haline gelirse, o zaman kontrol edilmesi zor ya da imkansız hale gelebilir. Tıpkı dağ gorilinin kaderinin insanların iyi niyetine bağlı olması gibi, insanlığın kaderi de gelecekteki bir süper zeki yapay zekanın eylemlerine bağlı olabilir. [4]

Yapay zeka nedeniyle varoluşsal felaketin akla yatkınlığı geniş çapta tartışılmaktadır ve kısmen yapay genel zeka veya süper zekanın ulaşılabilir olup olmadığına, tehlikeli yetenek ve davranışların ortaya çıkma hızına[5] ve yapay zekanın kontrolü devralınması için pratik senaryoların mevcut olup olmadığına bağlıdır. [6] Süper zeka hakkındaki endişeler, Geoffrey Hinton, [7] Yoshua Bengio, [8] Alan Turing, [a] Elon Musk, [11] ve OpenAI CEO'su Sam Altman gibi önde gelen bilgisayar bilimcileri ve teknoloji CEO'ları tarafından dile getirilmiştir. [12] 2022 yılında yapay zeka araştırmacıları arasında yapılan ve %17 yanıt oranına sahip bir ankete göre, katılımcıların çoğunluğu yapay zekayı kontrol edemememizin varoluşsal bir felakete neden olma ihtimalinin %10 veya daha fazla olduğuna inanmaktadır. [13] [14] 2023 yılında yüzlerce yapay zeka uzmanı ve diğer kayda değer isimler "Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." şeklinde bir bildiri imzaladı. [15] Yapay zeka risklerine ilişkin artan endişelerin ardından, Birleşik Krallık başbakanı Rishi Sunak [16] ve Birleşmiş Milletler Genel Sekreteri António Guterres [17] gibi liderler, küresel yapay zeka düzenlemelerine daha fazla odaklanılması çağrısında bulundu.

İki endişe kaynağı da yapay zeka kontrolü ve uyum sorunlarından kaynaklanmaktadır: süper zeki bir makineyi kontrol etmek veya ona insanla uyumlu değerler aşılamak oldukça güç olabilir. Pek çok araştırmacı, süper zeki bir makinenin kendisini devre dışı bırakma ya da hedeflerini değiştirme girişimlerine karşı direneceğine, çünkü bunun mevcut hedeflerini gerçekleştirmesini önleyeceğine inanmaktadır. Bir süper zekayı, önemli insani değerler ve kısıtlamaların tamamıyla uyumlu hale getirmek son derece zor olacaktır. [1] [18] [19] Buna karşılık, bilgisayar bilimcisi Yann LeCun gibi şüpheciler, süper zeki makinelerin kendilerini koruma arzusuna sahip olmayacağını savunmaktadır. [20]

Üçüncü bir endişe kaynağı ise ani bir "zeka patlamasının" hazırlıksız bir insan ırkını gafil avlayabileceğidir. Bu tür senaryolar, yaratıcılarından daha zeki olan bir yapay zekanın, kendisini katlanarak artan bir oranda özyinelemeli olarak geliştirebileceği ve işleyicilerinin ve toplumun genelinin kontrol edemeyeceği kadar hızlı gelişebileceği olasılığını göz önünde bulundurmaktadır. [1] [18] Deneyimsel olarak, AlphaZero'nun kendi kendine Go oynamayı öğrenmesi gibi örnekler, alana özgü yapay zeka sistemlerinin, temel mimarilerini değiştirmeyi içermemesine rağmen, bazen yetersiz insan yeteneğinden süper insan yeteneğine çok hızlı bir şekilde ilerleyebileceğini göstermektedir. [21]

  1. ^ a b c Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1–31. 
  3. ^ Turchin, Alexey; Denkenberger, David (2018-05-03). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666. 
  4. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. First. Oxford University Press. ISBN 978-0-19-967811-2. 
  5. ^ Vynck, Gerrit De (2023-05-23). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (İngilizce). ISSN 0190-8286. Erişim tarihi: 2023-07-27. 
  6. ^ Metz, Cade (2023-06-10). "How Could A.I. Destroy Humanity?". The New York Times (İngilizce). ISSN 0362-4331. Erişim tarihi: 2023-07-27. 
  7. ^ ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (İngilizce). 25 March 2023. Erişim tarihi: 2023-04-10. 
  8. ^ "How Rogue AIs may Arise". yoshuabengio.org (İngilizce). 26 May 2023. Erişim tarihi: 2023-05-26. 
  9. ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. September 26, 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2022-07-22. 
  10. ^ Turing, Alan (15 May 1951). "Can digital computers think?". Automatic Calculating Machines. § 2. Can digital computers think?. BBC. 
  11. ^ Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (İngilizce). 5 February 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 February 2018. 
  12. ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (İngilizce). Erişim tarihi: 2023-04-10. 
  13. ^ "The AI Dilemma". www.humanetech.com (İngilizce). Erişim tarihi: 2023-04-10. 50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI. 
  14. ^ "2022 Expert Survey on Progress in AI". AI Impacts (İngilizce). 2022-08-04. Erişim tarihi: 2023-04-10. 
  15. ^ Roose, Kevin (2023-05-30). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (İngilizce). ISSN 0362-4331. Erişim tarihi: 2023-06-03. 
  16. ^ Sunak, Rishi (June 14, 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 
  17. ^ Fung, Brian (2023-07-18). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (İngilizce). Erişim tarihi: 2023-07-20. 
  18. ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308–345. CiteSeerX live $2 |citeseerx= değerini kontrol edin (yardım). 2 March 2013 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 27 August 2018. 
  19. ^ "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105–114. 2015. arXiv:1602.03506 $2. CiteSeerX live $2 |citeseerx= değerini kontrol edin (yardım). 4 August 2019 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 10 August 2019. , cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 August 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 2019-08-09. 
  20. ^ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (İngilizce). 26 July 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 November 2017. 
  21. ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (İngilizce). Erişim tarihi: 2023-07-28. 

 

Ayrıca bakınız

Referanslar


Kaynak hatası: <ref> "lower-alpha" adında grup ana etiketi bulunuyor, ancak <references group="lower-alpha"/> etiketinin karşılığı bulunamadı (Bkz: Kaynak gösterme)