Yapay zeka felsefesi

Yapay zeka felsefesi, yapay zekayı ve yapay zekanın, etik, bilinç, epistemoloji ve özgür irade bilgi ve anlayışı üzerindeki etkilerini araştıran teknoloji felsefesinin bir dalıdır.[1] Ayrıca teknoloji, yapay hayvanların veya yapay insanların yaratılmasıyla ilgilidir, bu nedenle disiplin, filozoflar için oldukça ilgi çekicidir.[2] Bu faktörler yapay zeka felsefesinin ortaya çıkmasına katkıda bulunmuştur. Bazı akademisyenler, AI topluluğunun felsefeyi reddetmesinin zararlı olduğunu savunur.[3]

Yapay zeka felsefesi, bu tür soruları şu şekilde yanıtlamaya çalışır:[4]

  • Bir makine akıllıca hareket edebilir mi? Bir insanın düşünerek çözeceği herhangi bir sorunu çözebilir mi?
  • İnsan zekası ve makine zekası aynı mıdır? İnsan beyni aslında bir bilgisayar mı?

Bu gibi sorular, sırasıyla AI araştırmacılarının, bilişsel bilim adamlarının ve filozofların farklı ilgi alanlarını yansıtır. Bu soruların bilimsel cevapları, "akıl" ve "bilinç" tanımlarına ve tam olarak hangi "makinelerin" tartışıldığına bağlıdır.

AI felsefesindeki önemli önermeler aşağıdakilerden bazılarını içerir:

  • Turing testi: Bir makine bir insan kadar akıllıca davranıyorsa, o zaman bir insan kadar zekidir.[5]
  • Dartmouth Konferansı: "Öğrenmenin her yönü veya zekanın diğer herhangi bir özelliği o kadar kesin bir şekilde tanımlanabilir ki, onu simüle etmek için bir makine yapılabilir."[6]
  • Allen Newell ve Herbert A. Simon'ın fiziksel sembol sistemi hipotezi: "Fiziksel bir sembol sistemi, genel akıllı eylem için gerekli ve yeterli araçlara sahiptir."[7]
  • John Searle'nin güçlü AI hipotezi: "Doğru girdi ve çıktılara sahip, uygun şekilde programlanmış bir bilgisayar, bu nedenle, tam olarak insanların sahip olduğu anlamda bir akla sahip olacaktır.."[8]
  1. ^ McCarthy, John. "The Philosophy of AI and the AI of Philosophy". jmc.stanford.edu. 23 Ekim 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 18 Eylül 2018. 
  2. ^ Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), "Artificial Intelligence", Zalta, Edward N. (Ed.), The Stanford Encyclopedia of Philosophy, Fall 2018, Metaphysics Research Lab, Stanford University, 9 Kasım 2019 tarihinde kaynağından arşivlendi, erişim tarihi: 18 Eylül 2018 
  3. ^ Deutsch, David (3 Ekim 2012). "Philosophy will be the key that unlocks artificial intelligence | David Deutsch". The Guardian (İngilizce). ISSN 0261-3077. 27 Eylül 2013 tarihinde kaynağından arşivlendi. Erişim tarihi: 29 Nisan 2020. 
  4. ^ Russell & Norvig 2003, s. 947 define the philosophy of AI as consisting of the first two questions, and the additional question of the ethics of artificial intelligence. Fearn 2007, s. 55 writes "In the current literature, philosophy has two chief roles: to determine whether or not such machines would be conscious, and, second, to predict whether or not such machines are possible." The last question bears on the first two.
  5. ^ This is a paraphrase of the essential point of the Turing test. Turing 1950, Haugeland 1985, ss. 6–9, Crevier 1993, s. 24, Russell & Norvig 2003, ss. 2–3 and 948
  6. ^ McCarthy et al. 1955. This assertion was printed in the program for the Dartmouth Conference of 1956, widely considered the "birth of AI."also Crevier 1993, s. 28
  7. ^ Newell & Simon 1976 and Russell & Norvig 2003, s. 18
  8. ^ This version is from Searle (1999), and is also quoted in Dennett 1991, s. 435. Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." Searle 1980, s. 1. Strong AI is defined similarly by Russell & Norvig (2003, s. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search