Bu tez, yapay zekânın (YZ) öğrenme kapasitelerini ve sınırlarını tarihsel ve felsefi bir perspektiften incelemektedir. Makale, YZ’nin insan benzeri düşünme ve öğrenme yeteneklerini tartışarak, Alan Turing’in işlevselci zekâ anlayışı ve John Searle’ün Çince Odası argümanına odaklanmaktadır. Turing’in, makinelerin insana benzer şekilde zeki olabileceğini savunan perspektifine karşılık, Searle, sembollerin manipülasyonunun anlam üretmek için yeterli olmadığını ve bu nedenle YZ’nin gerçek anlamda zekâ ve bilinç kazanamayacağını öne sürmektedir. Makale ayrıca, derin öğrenme ve büyük dil modelleri gibi günümüz YZ teknolojilerinin bu bağlamda neyi başarabileceğini ve sınırlamalarını tartışmaktadır. Sonuç olarak, YZ’nin potansiyel sınırlarını ve insan benzeri bilinç ve anlam üretme yeteneğinin olup olmadığını sorgulamaktadır.
This thesis examines the learning capacities and limitations of artificial intelligence (AI) from a historical and philosophical perspective. It discusses AI’s capabilities for human-like thinking and learning by focusing on Alan Turing’s functionalist understanding of intelligence and John Searle’s Chinese Room argument. While Turing argued that machines could be intelligent in a way similar to humans, Searle contends that manipulating symbols is insufficient for generating meaning, and thus AI cannot genuinely achieve intelligence and consciousness. The article also explores contemporary AI technologies such as deep learning and large language models, discussing what they can achieve and their limitations in this context. Ultimately, it questions the potential boundaries of AI and whether it can develop human-like consciousness and meaning-making abilities.
Yapay zekâ projesi, düşünce tarihinin oldukça eski dönemlerinde başlayan insansı varlıkların ve düşünebilen makinelerin olanağı üzerine bir tartışmanın uzantısı olarak ortaya çıkmıştır. Yeni bir çalışma alanı olarak “yapay zekâ” (YZ) adı, ilk olarak 1956 yılındaki Dartmouth Konferansı’nda John McCarthy tarafından önerilmiştir. Düzenleyicileri arasında John McCarthy, Marvin Minsky, Nathaniel Rochester ve Claude Shannon gibi öncü isimlerin yer aldığı bu yaz çalıştayı, modern yapay zekâ çalışmalarının kurucu olayı olarak kabul edilir. Bu isimler, konferans önerisinde amaçlarını şu şekilde tanımlamışlardır:
“Çalışma, öğrenmenin her yönünün ya da zekânın diğer herhangi bir özelliğinin, ilkesel olarak bir makinenin taklit edebileceği kadar kesin bir şekilde betimlenebileceği varsayımı temelinde ilerleyecektir.”
Bu varsayıma dayanarak McCarthy ve ekibi, insana ait düşünme biçimlerini, öğrenme, dili kullanma, kavram oluşturma, problem çözme gibi yetenekleri taklit eden makinelerin hayata geçirilmesi için bir girişimde bulunurlar. Bu girişimin gerisinde bulunan ve bugün de yapay zekâ alanında hâlâ tartıştığımız fikir, yani “insan gibi” ya da “hemen hemen insansı” makinelerin geliştirilebileceği fikri, aslında Alan Turing’e aittir. Turing 1950’de, başarılı olması durumunda bir makinenin “düşünebildiğini” ya da “zeki” olduğunu söyleyebileceğimiz bir test önermiştir. Öte yandan, 1980’lerde John Searle, Turing Testi’ne ilkesel olarak itiraz ettiği ve mevcut paradigma içindeki makinelerin asla insan gibi düşünemeyeceğini göstermeye çalıştığı Çince Odası argümanını geliştirmiştir (Searle, 2005).
Biz tezimizde Searle’ün YZ projesine yönelttiği eleştirilerden hareketle, “Derin Öğrenme” (Deep Learning) teknikleriyle geliştirilen ve genel adı “Büyük Dil Modelleri” (Large Language Models) olan ChatGPT gibi yapay zekâ sistemlerini konu edinmek istiyoruz. Çalışmamız boyunca soracağımız soru, YZ sistemlerinin neyi öğrenip neyi öğrenemeyeceği olacak. Sorumuzun YZ’nin potansiyel sınırlarına ve insansı bir YZ’nin olanaklı olup olmadığına yönelik kavrayışımıza katkı sunacağına inanıyoruz. Bunun için tezimizin ilk bölümüne, YZ tartışmasının tarihsel arka planını oluşturan iki karşıt görüşü -Turing ve Searle’ün görüşlerini- sunmakla ve kavramsal bir çerçeve çizmekle başlayacağız. İzleyen bölümde ise alandaki yeni gelişmelerle birlikte YZ tartışmasının aldığı güncel biçimi ortaya koymaya çalışacağız. Sonuç bölümünde kendi görüşümüzü ortaya koyarak YZ’nin geleceğine dair çeşitli çıkarımlarda bulunmayı deneyeceğiz.
Bilişsel bilimlerde hâkim görüş olan işlevselcilik, temelde “ruh, tin” bakış açısını reddetmekte ve bir yapının işlevi olarak “zihin” bakış açısını tercih etmektedir. Dolayısıyla bugün, “zekâ”(intelligence) kavramını genellikle geçmişe kıyasla çok daha işlevsel bir anlamda kullanmaktayız. Zekâyı, ruh, tin ya da kendinde bir varlık olarak değil; gelişen ve oluşan bir işlev olarak kavramaktayız. Doğa ya da evren, fiziksel-mekanik yasalar çerçevesinde işleyen (devinen), etkileşim içinde olan maddi bir bütünlük olarak görülmektedir. Fiziksel olan her şey, matematiksel modellerle temsil edilebilmekte ve doğanın işleyişine dair matematiksel yasalar formüle edilebilmektedir. Bu kavrayış doğrultusunda, fiziksel süreçler ve işlevler başka yapılar içinde temsilin aktarımı ya da taklit yoluyla yeniden üretilebilmekte ve işlevleri mühendislik yoluyla gerçekleştirilebilmektedir. Eğer zihin ya da zekâ da diğer organlarımız gibi evrimsel süreçlerin bir ürünü olarak işlev temelli bir bakış açısıyla ele alınırsa, öğrenme mekanizmalarının temel ilkeleri belirlenerek, bir bakıma “öğrenme”nin algoritması saptanarak bunların matematiksel modelleri çıkarılabilir. Böylece, aynı (bilişsel) işlevler, biyolojik olmayan yapılarda da modellenebilir ve yapay sistemler içinde yeniden üretme imkanı edilebilir. İnsan zihninin matematikselleştirilebilmesi, onun sembollerle temsil edilebilmesi, varlıkların sembollerle temsil edilebileceği ve varlıklar arasındaki ilişkilerin mantıksal ve matematiksel operatörler (ve, veya, toplama, çıkarma vb.) aracılığıyla modellenerek işlenebileceği anlamına gelir. Burada zihnin duygu, bilinç ve sezgi gibi unsurlarından da bahsettiğimiz göz ardı edilmemelidir.
Bu perspektifi benimsediğimizde, yani insanın doğadaki diğer varlıklar gibi fiziksel yasalar çerçevesinde işleyen bir varlık olduğunu ve fiziksel süreçlerin matematiksel modellerle temsil edilebildiğini kabul edersek, o hâlde zihin ve zekâ gibi fenomenler de yalnızca işlevsel durumlar olarak görülebilir. Bu durumda zekâyı sembolik temsillerle ifade etmek ve belirli yapay sistemlerde modellemek mümkün olarak görülebilir.
Turing ile birlikte aslında biz şunun farkına varıyoruz: Mantıksal olarak bir biçimsel dizge içerisinde teorem olarak ispatlanabilen önermeler ile bir Turing Makinası tarafından hesaplanabilen fonksiyonlar aslında eş-değerdir. Kısacası, hesap edilebilirlik ile mantıksal olarak inşa edilebilirlik ilişkilenmiş olur. Turing ile birlikte aslında biz şunun farkına varıyoruz: Mantıksal olarak, biçimsel bir dizgede teorem olarak ispatlanabilen ifadeler ile Turing Makinesi tarafından hesaplanabilen fonksiyonlar matematiksel olarak eş-değerdir. Başka bir deyişle, hesaplanabilirlik kavramı ile mantıksal olarak inşa edilebilirlik (biçimsel türetilebilirlik) arasında doğrudan ilişkilidir. Bu ilişki çerçevesinde, hesaplanabilir olan her şeyin algoritmik olarak modellenebilir olduğunu ortaya koyar.
Geldiğimiz noktada temel fikir, insan zihninin semboller ve operatörlerle temsil edilebileceği ve düşünebilen bir makinenin inşa edilebileceğidir. Şimdi, birkaç önemli noktaya dikkat çekelim:
Hesaplama maddi bir süreç midir? İşlevselci filozoflar, hesaplamalı süreçlerin maddi sistemler tarafından yürütüldüğünü veya gerçekleştirildiğini savunmayı tercih eder.
Bir hesaplama makinesindeki hesaplama işlemleri üzerine düşünürken, makinenin donanımını soyutlayabiliriz. Yapısal olarak oldukça farklı inşa edilmiş iki mekanizma, aynı hesaplamaları gerçekleştirebilecek aynı programları çalıştırabilir. Hesaplama makineleri ile zihinleri kabaca aynı şekilde düşündüğümüzü varsayalım: Beyin, belirli işlemleri gerçekleştirme yetisine sahip bir aygıttır. Zihin durumları, en azından ilkesel olarak, farklı türdeki maddelerde meydana gelebilmeleri açısından hesaplamalı durumlara benzer. Zihinlerden ve zihinsel işlemlerden söz etmek, onları gerçekleştiren şeyden soyutlamak, yani daha üst bir düzeyden konuşmaktır.
Eğer gayri-maddi tözler mevcutsa, aynı işlemin elbette gayri-maddi bir gerçekleştiricisi de olabilir. İşlevselciler, hesaplama süreçlerinin “çoklu-gerçekleştirilebilir” olduğunu söyleyerek tam da bu meseleyi özetlemiş olurlar.
Bilgisayar dediğimiz makine 1940’larda ilk kez geliştirildiğinde, sembol işleyen ve belirli çıktılar üreten makineler olarak tasarlandı. Öyleyse, insan zihnini doğru bir şekilde anlayabilir ve içeriklerini sembollerle temsil edebilirsek, bu bilgileri bir makineye aktarabiliriz; bu sembollerin işlenmesi programlar tarafından gerçekleştirilebilir ve bu makineler insan gibi çıktılar üretebilir. Başka bir deyişle, makine de aynı insan zihninin davrandığı gibi çeşitli verileri (sembolleri) alır, işler ve insan zihninin yapabildiği gibi çıktılar üretebilir. Sonuçta bu hayalin arkasındaki ontolojik ve epistemolojik inanç veya ön kabul şudur: İnsan zihni sembolleştirilebilir ve bu semboller makinalara aktarılıp işlenebilir.
İşlevselcilik, zihinsel durumları, onlara dayanak olan yapının fiziksel özelliklerinden bağımsız olarak, bu yapının oynadığı işlevsel rollere göre tanımlar. Dolayısıyla, zihinsel durumlar belirli girdilere (uyaranlara) yanıt olarak belirli çıktılar (davranışlar) üreten süreçler olarak görülür. Farklı yapılar aynı işlevleri yerine getirebileceğinden, zihinsel durumların biyolojik veya fizyolojik temelleri belirleyici değildir.
Turing’in zekâ anlayışı da bu işlevselci perspektife dayanmaktadır. Günümüzde ana akım yapay zekâ araştırmaları da işlevselci paradigma çerçevesinde yürütülmektedir. İşlevselcilik, insan zihni ile makine arasında temel bir benzerlik varsaymaya olanak tanır. Nasıl ki insan zihni, duyusal verileri işleyerek bunlara uygun tepkiler üretir, benzer şekilde bir bilgisayar programı da belirli girdileri işleyerek belirli çıktılar üretir. Buna göre, eğer bir makine, zekâ olarak adlandırılabilecek bir işlevi yerine getirebiliyorsa, yani verilen girdileri işleyerek bilgi üretiyorsa, bu makinenin zeki olduğunu kabul etmemiz gerekir. Örneğin, sorduğumuz çeşitli sorulara yanıt veren ya da girdi olarak aldığı sayısal veriler üzerinde toplama, çıkarma, çarpma ve bölme gibi işlemler yapan bir bilgisayar. Keza, uygun bir satranç hamlesi yapmak için rakibin olası gelecek hamlelerini tahmin edebilen bir satranç programı da buna örnektir. Tüm bu işlevler, insan zihninin konuşma, matematiksel işlemler yapma ve strateji geliştirme yetenekleriyle benzerdir. İşlevselciliğe göre, bilgisayar bu işlevleri yerine getirdiği için belirli bir tür zekâ sergilemektedir. Böylece, zekâ artık yalnızca biyolojik varlıklara özgü bir nitelik olmaktan çıkar; zeki olmak ya da daha genel bir ifadeyle zihin sahibi olmak, hesaplama, bilgi işleme veya problem çözme yeteneğine sahip olmak anlamına gelir.
Alan Turing, makinelerin yukarıda tanımladığımız anlamda zeki olup olmadığını kararlaştırabileceğimiz bir test önermiştir. Turing Testi, makinelerin gerçekten düşünüp düşünmediğiyle, öznel deneyimlere veya birinci tekil şahıstan bilinç durumlarına sahip olup olmadığıyla ilgilenmez; hangi koşullar altında makinelere zekâ atfedebileceğimiz sorusuna odaklanır. Turing, işlevselci bakış açısıyla zihni, fiziksel yapıdan bağımsız olarak işleyen bir program gibi görür ve zekâ ile zihnin işlevsel bir kavram olarak ele alınması gerektiğini savunur. Ayrıca, makinelerin öğrenme yetisine sahip olma olasılığı üzerine düşünen ilk düşünürlerden biri olarak, çağdaş yapay zekâ çalışmalarında önemli bir yer tutan makine öğrenimi alanının gelişiminde öncü bir rol oynamıştır.
Artık bütünüyle fiziksel bir evrene bakıyor ve tamamen fiziksel-maddi bir kozmolojide yaşadığımızı kabul ediyor ya da buna inanıyoruz. Dolayısıyla, her şeyi fiziksel olana indirgeme ve yalnızca fiziksel olan üzerinden açıklanma imkânını zorluyoruz. Peki, her seferinde gerçekten bir sonuca ulaşıyor muyuz, yoksa bazı illüzyonlar bizi sonuç aldığımıza mı inandırıyor? İşte bu şüphe, tezimizin yapay zekâ projesine yönelik sorgulamasının temelini doğurmaktadır.
“Düşünmenin bir tanımını vermek istemiyorum ama eğer mecbur kalırsam, onun muhtemelen kafamın içinde vızıldayan bir ses olduğu dışında bir şey söyleyemezdim. …Önemli olan şey bir beynin ya da bir insanın, tartışmak istediğimiz ve istemediğimiz özellikleri arasında bir sınır çizmeye çalışmaktır.” (Turing vs, 2023, 196-197)
Alan Turing’in 1950 yılında yazdığı Computing Machinery and Intelligence adlı meşhur makalesindeki bu sınır çekme girişimi, “zekâ”yı makinelerin de sahip olabileceği bir özellik olarak tanımlarken, aynı zamanda insan zekâsını da belirli bir çerçeve içine almış, sınırlamıştır. Bu makalede önerilen “Turing Testi”, temelde bir makinenin “insan gibi davranabilme becerisi” ya da “insanı ikna edebilecek derecede taklit edebilme kapasitesi” üzerinden zeki olup olmadığını test eder. Test, “iletişim-dil” üzerinden gerçekleştirilir. Turing, bir makinenin insan gibi iletişim kurabilme ve kendisinin insan olduğuna insanları ikna edebilme becerisini zekâ olarak kabul eder. “Bir makine düşünebilir mi?” sorusunu ise “Bir makine, insana benzer bir şekilde davranarak zeki olduğunu gösterebilir mi?” şeklinde yeniden formüle etmiştir.
“Makinenin düşünüp düşünmediğini görmek için buna bir test diyebilirsiniz ancak döngüsellik yanılgısından kaçınmak ve testi geçen makinelerin (sözgelimi) ‘A sınıfı’ makineler olduğunu söylemek daha iyi olacaktır. Testin arkasındaki fikir, makinenin kendisine sorulan soruları yanıtlayarak bir insan gibi davranmaya çalışması gerektiği ve davranışının ancak makul ölçüde ikna edici olması durumunda başarılı olacağıdır.” (Turing vs, 2023, 197).
Bu formülasyonun önemli alt anlamları vardır. Turing, zihnin fiziksel yapıya bağlı olmaksızın işlevsel bir bakış açısıyla ele alınması gerektiğini savunur. Ona göre, bir makine zihnin belirli işlevlerini yerine getirebiliyorsa, onun zeki olduğunu kabul etmemiz gerekir. Turing’in asıl önemsediği şey, makinelerin bilinç sahibi olup olmadığı değil, insan gibi girdi-çıktı işlemlerini yerine getirip getiremeyeceğidir. Kısacası, bilinç, bir makinenin zeki olup olmadığını belirlemek için gerekli bir kriter değildir.
Turing Testi, bir makinenin insanlarla doğal dilde etkileşim kurabilme yeteneğini ölçer. Testte, bir insan (sorgulayıcı), bir makine ve başka bir insanla yazılı olarak iletişim kurar. Sorgulayıcı, karşısındakilerden hangisinin makine olduğunu belirlemeye çalışırken, makine ise kendisini insan gibi göstererek sorgulayıcıyı ikna etmeye çalışır. Makinenin burada yaptığı ya da yapmaya çalıştığı şey insanı en iyi şekilde “taklit ve ikna” etmektir. Eğer sorgulayıcı, makineyi insandan ayırt edemezse, makinenin “düşünebildiği” kabul edilir.
Sorgulayıcı (İnsan): Bir insan sorgulayıcı, bir odada oturur ve başka bir odada bulunan iki varlıkla yazılı olarak iletişim kurar. Bu varlıklardan biri insandır, diğeri ise makinedir.
Makine ve İnsan: Makine, sorgulayıcıyı kandırmaya çalışarak kendisinin insan olduğunu düşündürmeye çalışır. Aynı zamanda, insan olan katılımcı da sorgulayıcıya kendisinin insan olduğunu göstermeye çalışır.
Yazılı İletişim: Tüm iletişim yazılı olarak gerçekleşir, böylece sorgulayıcı ses ya da görüntüden hareketle bir çıkarımda bulunamaz.
Değerlendirme: Eğer sorgulayıcı, makineyi insandan ayırt edemezse, makinenin “düşünebildiği” kabul edilir.
Turing Testi, bir makinenin zekâsını değerlendirmek için basit ve etkili bir yöntemdir; makinenin insan gibi iletişim kurabilme yeteneğini ölçmek bunun için yeterli görülür. Bu yaklaşım, yapay zekâ alanında önemli bir dönüm noktası olmuş ve günümüzde de etkisini sürdürmektedir.
Turing Makinesi, hesaplanabilirliği somutlaştırması bakımından hesaplama teorisinin temel kavramlarından biridir. Turing, her hesaplanabilir fonksiyonun bir Turing Makinesi tarafından hesaplanabileceğini öne sürmüştür. Bu, “Turing tamlığı” olarak bilinen ve modern bilgisayarların hesaplama gücünün temelini oluşturan bir ilkedir.
Turing Makinesi, algoritma kavramını daha net hâle getirmek amacıyla tasarlanmış soyut bir modeldir. Belirli girdileri okuyarak, açıkça tanımlanmış kurallara göre bu girdileri sınırlı sayıda adımda işleyip belirli çıktılar üreten bir işlev görür. Temel bileşenleri şu şekildedir (Turing, 1936):
Bant (Tape):
Sonsuz uzunlukta bir kâğıt şeridi olarak düşünülebilir.
Hücrelere ayrılmıştır ve her hücrede bir sembol bulunur. Bu semboller genellikle 0 ve 1 gibi ikili sistem sembolleridir.
Okuyucu-Yazıcı Kafa (Read-Write Head):
Banttaki hücreleri okur ve yazar.
Herhangi bir anda bant üzerindeki bir hücrede bulunur ve o hücredeki sembolü okur.
Aynı zamanda bu hücredeki sembolü değiştirebilir ve sağa veya sola hareket edebilir.
Durum Kümesi (Set of States):
Makinenin içinde bulunduğu durumu belirten bir dizi farklı durum vardır.
Makine bir seferde yalnızca bir durumda bulunur.
Geçiş Tablosu (Transition Table):
Okunan sembole ve mevcut duruma bağlı olarak makinenin ne yapacağını belirleyen kurallardır.
Makine, hangi sembolün yazılacağını, hangi yöne hareket edileceğini ve hangi yeni duruma geçileceğini bu tablodan öğrenir.
Başlangıç Durumu: Makine belirli bir başlangıç durumunda ve belirli bir hücrede başlar.
Sembol Okuma: Okuyucu-yazıcı kafa, banttaki mevcut hücredeki sembolü okur.
Geçiş Tablosuna Göre Hareket: Geçiş tablosuna bakarak, okunan sembol ve mevcut duruma göre makine üç şey yapar:
Hücreye yeni bir sembol yazar (mevcut sembolü değiştirebilir).
Okuyucu-yazıcı kafayı sağa veya sola hareket ettirir.
Yeni bir duruma geçer.
Bu Süreç Devam Eder: Makine bir durma durumuna (accepting state) ulaşana kadar bu adımları tekrar eder. Eğer makine belirli bir durma durumuna ulaşırsa, işlem sona erer.
Örnek:
Bant: … | 1 | 0 | 1 | 0 | 1 | …
Başlangıç Durumu: q0
Geçiş Kuralı: (q0, 1) -> (q1, 0, R)
Durum q0’da iken 1 sembolünü okursa, 1’i 0 ile değiştirir, sağa hareket eder ve q1 durumuna geçer.
İşte bu basit model, modern bilgisayarların temel prensiplerini anlamak için kullanılır. Turing Makinesi, yalnızca hesaplanabilirlik ve algoritmaların teorik temellerini atmakla kalmaz, aynı zamanda mekanik zekâ kavramını da gündeme getirir. Bu, insan zihninin bir tür hesaplama işlevine sahip olduğu ve mekanik olarak taklit edilebileceği fikrini destekler.
Zihinsel süreçlerin fiziksel yapılardan bağımsız olarak tanımlanabilir olduğunu iddia ettiğimizde, bir anlamda zihni beyinden, beyni de zihinden ayrıştırmış ya da kurtarmış oluruz. Böylece farklı yapılar aynı işlevi yerine getirebilirler. İşte bu, çoklu gerçekleştirilebilirlik ilkesinin temelidir. Bu bakış açısıyla, hesaplamalar ve hatta insan zekâsına özgü olduğu düşünülen daha karmaşık zihinsel süreçler, pekâlâ bir makinede de gerçekleştirilebilir.
Turing ve onu destekleyenler, makinelerin öğrenme yeteneği üzerinde de durmuştur. Öğrenmeyi, deneyimler ve veriler üzerinden bilgi edinme ve bu bilgiyi kullanma yeteneği olarak tanımlamışlardır. Nasıl ki insanlar aynı alıştırmaları sürekli tekrar ederek öğrenirler ve bir şey hakkında elde ettikleri bilgiyi başka bir duruma da uygulayabilirler, aynı şeyi makineler de yapabilirler. Sözgelimi Newman, satranç oynayan bir makinenin tam da bu şekilde öğrendiğini iddia eder:
“Herhangi bir işte gerekli olan tüm bilgi -sayılar, trenlerin zamanları, parçaların konumları veya her neyse, ayrıca bunlarla ne yapması gerektiğini söyleyen yönergeler- tüm bu malzeme aynı şekilde depolanır. İş ilerledikçe bu model de değişir. Bu değişen parça genellikle değişen verileri içeren modelin parçasıdır, oysa yönergeler sabit kalır. Ancak ara sıra yönergelerin kendilerinin değiştirilmesini ayarlamak da aynı derecede basittir. Şimdi, makinenin bunu yapmasını sağlayacak bir program oluşturulabilir: İki hamlede mat olmayı sağlayacak bir satranç problemi uygun bir kodlamayla makineye kaydedilir ve makine her başlatılışında rastgele beyaz taşın hamlesi seçilir. Bu hamlenin tüm sonuçları o anda analiz edilir ve bu hamle iki hamlede zorunlu olarak mat olmaya yol açmazsa makine sözgelimi, ‘P-D3, yanlış hamle’ yazar ve durur. Ancak bu analiz, doğru hareket seçildiğinde, makinenin yalnızca sözgelimi ‘F-D5, çözüm’ diye yazmakla kalmadığını ayrıca rastgele bir seçimi gerektiren yönergeyi de ‘F-D5 dene’ diyen biriyle değiştirdiğini gösterir. Sonuç olarak, makine yeniden başlatıldığında hemen doğru çözümü yazdıracaktır ve bunu da rutini oluşturan adamdan bağımsız, önceden ne olduğunu bilerek yapacaktır. Ve bence buna öğrenme denilebilir.” (Turing vs, 2023, 199).
Benzer şekilde Turing de makinelerin öğrenme kapasitesine sahip olabileceğini ve bu sayede zamanla daha zeki hale gelebileceğini öne sürer:
“Turing: Makine birçok şeyi ne kadar kolay öğrendiyse başka şeyleri öğrenmesi de o kadar kolay olmalı. Belirli bir şeyi yapmayı öğrenirken, muhtemelen daha verimli bir şekilde öğrenmeyi de öğreniyor olacaktır. Ona belirli şeyleri yapması öğretildiğinde, ona öğretilmesi planlanan başka bazı şeylerin de herhangi bir özel öğretim gerekmeden gerçekleşeceğinin bulunacağına inanma eğilimindeyim.” (Turing vs, 2023, 200).
Burada öğrenme, makinelerin performansını artıran ve onları daha uyumlu hale getiren bir süreç olarak görülür. Yapay zekâ taraftarları da “deneyimden öğrenme” meselesini ele almaktan geri kalmazlar. Makinelerin “çocuk makine” (child machine) olarak tasarlanabileceğini ve tıpkı insanlar gibi deneyim ve eğitim yoluyla gelişebileceğini öne sürer. Ona göre yapay sistemler, kendilerine sağlanan verileri işleyip geçmiş deneyimlerden “öğrenerek” insan benzeri zekâya doğru önemli adımlar atabilir. Modern makine öğrenimi ve özellikle derin öğrenme yaklaşımları, veriden örüntü çıkarmayı ve yine veriye dayalı olarak performansı artırmayı amaçladığından, Turing’in bu erken dönem fikirlerinden doğrudan etkilenmiştir. Bu noktada, Turing’in çalışmaları için “makine öğreniminin fikrî temelini attı” demek pek de yanlış olmaz.
Öte yandan, John Searle bu tür bağlantıcı (connectionist) veya sembolik sistemlerin “öğrenme” süreçlerini, gerçek bir anlama ya da bilinçli kavrayış olarak kabul etmez. Ünlü “Çin Odası” argümanıyla (Searle, 1980), makinelerin yalnızca sembolleri belirli kurallar çerçevesinde işlediklerini, ancak bu sembollerin anlamsal içeriğini “gerçekten” kavrayamadıklarını savunur. Searle’e göre, deneyimden öğrenme yoluyla elde edilen çıktıların işlevsel olarak insana benzemesi, makinelerin bir zihin veya niyetlilik (‘isteme’, intentionality) sahibi olduğunu göstermez. Bu yüzden, onun bakış açısında, Turing’in tanımladığı “deneyimden öğrenme” süreci, makinelerin anlam ürettiği veya bilinç geliştirdiği anlamına gelmez.
John Searle, Alan Turing’in çerçevesini çizdiği şekilde işleyen yapay zekânın insan zihniyle kıyaslanması durumunda ilginç sonuçlar ortaya çıkacağını savunmaktadır. Zihinler, Beyinler ve Programlar adlı makalesinde, “güçlü yapay zekâ” (GYZ) olarak adlandırdığı bir tezden bahseder. Bu teze göre, uygun şekilde programlanmış bir bilgisayar gerçek zihinsel durumlara sahip olabilir ve insan gibi “anlama” geliştirebilir. Ancak Searle, 'Çin Odası' düşünce deneyiyle bu görüşe itiraz eder. Bilgisayar programlarının yalnızca sembolleri işlemekten öteye geçemeyeceğini ve dolayısıyla gerçek bir anlama düzeyine ulaşamayacağını savunur.
“Makineye bir öykü verilip ardından soru sorulunca, aynı öyküyü dinleyen bir insanın verebileceği yanıtları, makine yazılı olarak veriyor. Güçlü yapay zekâ taraftarları bu soru-yanıt olgusunda makinenin yalnızca bir insan yeteneğini simüle etmekle kalmayıp aynı zamanda (1) makinenin öyküyü gerçekten anladığını ve böylece yanıtları oluşturduğunu ve (2) makine ile kullanılan programın, insanın öyküyü anlayıp, soruları yanıtlama konusundaki yeteneğini açıkladığını da iddia ediyorlar.” (Searle, 2005, 342)
Searle, güçlü yapay zekâ (GYZ) tezine karşıdır ve bu tezin gerçekleşmesini olanaksız görür. Searle'ün temel gerekçesi, algoritmik yapıya sahip bilgisayar programlarının sadece sembolleri manipüle ederek işlemeye dayalı bir işleve sahip olması ve sadece bu işlevin tek başına “anlam”ı veremeyecek olmasıdır (Searle, 2005). Searle'ün bu tartışmadaki pozisyonunu Turing’in kavramsallaştırması bağlamında şöyle özetlemek mümkündür: Turing Makinesi, Turing Testi’ni geçebilir (insan zihnini taklit edebilir) ancak gerçek anlamda bir zihin kazanamaz ve insan anlayışına benzer bir anlayış ya da kavrayış geliştiremez (GYZ tezinin reddi). Searle, “Dijital bir bilgisayar düşünebilir mi?” sorusunu şöyle yanıtlar:
“Eğer dijital bilgisayar’ derken, bir bilgisayar programının örneklemi olarak tanımlanabileceği bir tanım düzeyine sahip bir makineden söz ediyorsak, yine sorunun yanıtı evet olacaktır; çünkü bizler bir sürü bilgisayar programının örneklemeleriyiz ve düşünebiliriz. ‘Ama herhangi bir şey yalnızca doğru programa sahip bir bilgisayar olduğu için düşünebilir, anlayabilir mi? Doğru programı örneklemek anlamanın yeterli bir koşulu olabilir mi?’ Bence sorulacak en doğru soru budur ve genelde daha önceki sorularla karıştırılabildiği halde, bunun yanıtı ‘hayır’dır. (...) Çünkü biçimsel simge manipülasyonlarının kendi başına yönelimselliği yoktur; oldukça anlamsızdırlar; simgeler herhangi bir şeyi simgelemediğinden aslında simge manipülasyonu bile değildirler. Dilbilim terminolojisinde, yalnızca sözdizimi vardır, anlambilim yoktur. Bilgisayarların sahipmiş gibi göründüğü yönelimsellik, yalnızca, onları programlayanların, kullananların, onlara girdi aktaranların ve çıktıları yorumlayanların zihnindedir.” (Searle, 2005, 354-355).
Searle burada, beynimizin de bir makine olduğunu ve bir bilgisayar programı örneği gibi çalışabiliyor olduğunu, yani hesaplama yapabildiğini söylemektedir. Ancak bir makinenin bir programı çalıştırıyor olması, onun gerçekten düşünebildiğini söylemek için yeterli değildir. İnsan beyni ve biyolojisi özel türden yapıya sahip bir makinedir; anlam üretebilme kapasitesine sahip bir makinedir. Searle’ün burada yaptığı ayrım ve ilerleyen bölümlerde ele alacağımız bazı hususlar, tartışmamızın ve savımızın doğru anlaşılabilmesi açısından büyük önem taşımaktadır.
Searle’ün Turing Testine dayanan yapay zekâ projesine yönelik eleştirileri, 1980 yılında geliştirdiği “Çince Odası” argümanına dayanmaktadır. Öncelikle, yapay zekâ projesinin temelinde yatan biçimsel perspektifi, yani zekâyı yalnızca “sentaktik” boyuta indirgemeye çalışan anlayışı hedef alır. Dolayısıyla, zihnin ve zekânın işlevselci çerçeveye sıkıştırılmasına karşı çıkar.
Daha önce belirttiğimiz gibi, Turing’e göre, bir makine yazılı iletişim yoluyla bir insanı taklit ederek onu kandırabilirse, zekâ sahibi olarak kabul edilebilir. Searle’ün temel itirazı ise, yapay zekâ projesinde tasvir edilen (Turing Testi’nden hareketle) makinenin, belirli işaret ve sembolleri belirli kurallar (algoritmalar) çerçevesinde kullanarak çıktı üretirken, yaptığı işleme dair herhangi bir kavrayışa ya da anlama sahip olmadığıdır. Searle’ün burada açığa vurmak istediği en önemli nokta, böyle bir makinenin “zekâ” ya da “zihin” sahibi olduğunu iddia etmenin makul olmadığıdır çünkü bu iddia ile büyük bir yanılgı içerisine düşmekteyiz. Biçimsel kurallar tek başına semantik anlamı garanti etmemektedir. Onun görüşü en öz biçimde şu ifadeyle özetlenebilir: “Sözdizim anlambilim değildir.” Bir makine Turing Testi’ni geçse bile, bu, makinenin gerçekten düşündüğü anlamına gelmez; yalnızca belirli kurallara göre yanıt ürettiğini gösterir. Makineler, sembollerin ardındaki anlamı kavrayamaz ve insanların sahip olduğu zihin, bilinç ve anlayıştan tamamen yoksundurlar.
Searle, Çince bilmeyen bir kişinin, Çince sembollerle dolu bir odada bulunduğunu hayal etmemizi ister. Bu kişi, dışarıdan gelen Çince yazılı soruları, odada bulunan bir kitap veya çizelge yardımıyla anlamlı cevaplara dönüştürür. Kitap, hangi sembole karşılık hangi sembolün kullanılacağına dair ayrıntılı kurallar içerir. Kişi, Çinceyi bilmemesine ve anlamamasına rağmen, verilen kuralları uygulayarak doğru yanıtları üretebilir.
Örneğin, odadaki kişi dışarıdan gelen Çince yazılı bir soruyu alır ve kitapta belirtilen kuralları izleyerek yanıt verir. Kitap, belirli Çince sembollerle eşleşen cevapları içerdiğinden, kişi Çince yazılara uygun yanıtlar verebilir; ancak bu sembollerin anlamını bilmez. Bu durum, kişinin yalnızca semboller arası ilişkileri ve kuralları takip ettiğini, fakat gerçek bir anlamaya sahip olmadığını gösterir. Tersten bir okumayla, anlamaya sahip olmadan da çıktı, yani yanıt üretmenin imkanlı olduğu söylenebilir ancak bu durumun insandaki zekâya karşılık geldiğini iddia etmek için yeterli neden yoktur.
O halde, odadaki kişi yerine bir bilgisayar koyduğumuzda da durum değişmeyecektir. Bilgisayar, bu insan dilini anlamadan sembolleri belirli kurallara göre işleyebilir, ancak bu sürecin kendisine anlama veya zekâ olmayacaktır. Searle bu noktayı vurgulamak için kendisini odanın içerisinde hayal eder ve şöyle yazar: “...bilgisayar, benim bir şey anlamadığım halimden daha fazla bir şeye sahip değildir” (Searle, 2005, s. 343). Bilgisayarın yaptığı da pek farklı değildir; yalnızca sembolleri belirlenen kurallara göre manipüle etmekten ibarettir. Oysa gerçek anlama ve zekâ, bilinçli bir deneyim gerektirir.
Searle’ün “öğrenme” kavramı, “anlama” ve “bilinç” ile yakından ilişkilidir. Ona göre, öğrenme yalnızca bilgi edinme süreci değil, aynı zamanda bu bilgiyi anlamlandırma yeteneğidir. Searle, yapay zekânın öğrenme kapasitesini de sorgular ve onun insan benzeri bir öğrenme yeteneğine sahip olamayacağını savunur.
Tezimizde, Searle’ün bu eleştirilerinin günümüzde yalnızca veri üzerinde istatistiksel işlemler yapan derin öğrenme sistemleri için de geçerli olduğunu öne sürüyoruz. Bu sistemler, gerçekleştirdikleri işlemlerin ardındaki anlamı kavrayamaz ve dolayısıyla insanların öğrendiği gibi öğrenemezler.
Searle, yapay zekâya yönelik temel eleştirisini, zekânın yalnızca dışsal girdiler ve çıktılar üzerinden değerlendirilmesine karşı çıkarak sürdürür. Ona göre, bir sistemin zeki olup olmadığını anlamak için yalnızca işlevsel benzerliğe odaklanmak yetersizdir. A.Turing’in yaklaşımı makinenin ne işlediği ve nasıl işlediğini (işlemin içsel yapısı) ihmal ederek sadece işlevsel başarıyı (girdi-çıktı benzerliğini) ölçüt alır. Turing’in yaklaşımının aksine, Searle, zekânın içsel süreçleri de içermesi gerektiğini savunur. Zihinsel durumların yalnızca dışsal tepkilerle değil, bilinçli deneyimler, “anlam” (semantics) ve yönelimsellikle (intentionality) de ilişkili olduğunu vurgular. Burada, sembol manipülasyonunun (syntax), dil kendisiyle özdeş olmadığını, yalnızca sözdizimsel işlemler düzeyinde kaldığını ifade etmek gerekir.
Searle, işlevselci yaklaşımın zekâ kavramını yüzeysel bir biçimde ele aldığını düşünmektedir. Searle’ün eleştirisi, günümüzde yalnızca sentaktik işlemler gerçekleştiren yapay zekâ sistemleri için de geçerlidir. Derin öğrenme modelleri, büyük veri kümeleri üzerinden istatistiksel hesaplamalar yaparak çıktılar üretebilir; ancak bu sistemlerin, sembollerin ardındaki anlamı kavrayamadığını ve bilinçli bir anlayış geliştiremediğini savunur.
“Eğer belirli bir tür girdi, çıktı ve ikisi arasında bir programa sahip olduğum için, bende bilişin gerçekleştiği sonucuna varırsak, bilişsel olmayan her türlü alt-sistem bilişsel olarak görülecektir. Örneğin, midemin bilgi işlediği ve herhangi bir bilgisayar programını örneklediği bir tanımlama düzeyi vardır, ama bence anladığını söyleyemeyiz.” (bkz. Pylyshyn 1980).
Searle, yapay zekâ tartışmalarında işlevselci paradigmanın algoritma ve programlama dillerine odaklandığını, ancak bu sistemlerin çalıştığı donanımın göz ardı edildiğini belirtir. Ona göre, bir bilgisayarın insan beyninin biyolojik yapısından farklı bir donanıma sahip olması, onun insan gibi düşünme yetisine sahip olamayacağını gösterir. Gerçek zekânın, belirli bir biyolojik süreçle bağlantılı olduğunu ve bu sürecin yapay sistemler tarafından taklit edilemeyeceğini savunur. Bu nedenle, zihin kavramını biyolojik süreçlerle yakından ilişkili olarak ele alır. Zihin bizim sahip olduğumuz biyolojik yapının ayrılmaz bir parçasıdır. Ona göre zihin, beynin belirli fiziksel ve kimyasal yapı ve süreçlerinin, dolayısıyla yapının tamamının meydana getirdiği süreçlerin bir ürünüdür. Zihin, sadece bilgi işleme yeteneğine sahip değildir, aynı zamanda anlam ve yönelimsellik taşır. Zihin, sembollerin manipülasyonu veya sembollere dayalı bir temsil yoluyla açıklanamayacak bir derinliğe sahiptir.
Searle, argümanının merkezine “anlama yetisini” (understanding) almaktadır. Bu “anlama” ya da “kavrama” olarak ifade edebileceğimiz durumun “bilinç” içerdiğini söyleyebiliriz. Bilinç, deneyimsel ve öznel bir olgudur. Searle’ün iddiası, anlamanın ve bilincin yalnızca fiziksel veya hesaplamalı süreçlerle açıklanamayacağıdır. Daha önce ele aldığımız “Çince Odası”' argümanı, bir sistem dışarıdan bilinçli gibi görünse de gerçekte bilinç sahibi olmayabileceğini gösterir. Bu argüman, bilincin yalnızca işlevsel çıktılarla değil, içsel deneyimlerle ilişkili olduğunu vurgular ve bir makineye insansı bir zekâ atfedemeyeceğimizi savunur.
Bir program veya bilgisayar, girdilere her ne kadar başarılı bir şekilde çıktılar üretiyor olsa da burada anlamaktan söz etmek mümkün değildir. Bilgisayar ya da makine, anadili Türkçe olup biraz İngilizce bilen birinin, İngilizce konuşan birini kısmen anlaması gibi bir durumda değildir. Hatta bu durum, anadili Türkçe olup hiç Fransızca bilmeyen birinin Fransızcayı anlamamasından bile ötedir. Searle, “...bilgisayarın anlaması kısmen ya da eksik değil, tümüyle sıfırdır” diye bitirdiği akıl yürütmesine şöyle başlar:
“ ‘Anlamanın’ gerçekten uygulandığı ve gerçekten uygulanmadığı net durumlar vardır ve bu tartışma için bu iki durum bana yeterlidir. İngilizce öyküleri anlıyorum; Fransızca öyküleri belirli bir dereceye kadar anlıyorum; Almanca öyküleri daha az anlıyorum ve Çince öyküleri hiç anlamıyorum. Buna karşılık, arabam ve hesap makinem hiçbir şey anlamıyor; onlar bu çalışma alanına dâhil değil. Çoğu zaman 'anlamak' ve diğer bilişsel yüklemleri arabalara, hesap makinelerine ve diğer cisimlere atıfta bulunarak yaptığımız benzetmelerle kullanırız ama bu atıftarla hiçbir şey kanıtlanamaz. ‘Fotosel düzeneği nedeniyle kapı ne zaman açılacağını biliyor’ deriz. ‘Hesap makinesi toplama ve çıkarmanın nasıl yapılacağını biliyor (anlıyor, becerebiliyor) ama bölme yapamıyor’ deriz. Ya da ‘Termostat ısıdaki değişiklikleri algılıyor’ deriz. Bu özellikleri insan ürünlerine vermemizin nedeni çok ilginçtir ve kendi amaçlılığımızı bu cisimlerle genişletmemizle bağlantılıdır. Kullandığımız gereçler amaçlarımızın uzantısıdır ve bu nedenle onlara metaforik atıflarda bulunmayı doğal görürüz ama ben bu gibi örneklerle hiçbir felsefi etki yaratıldığına inanmıyorum. Bir otomatik kapının fotosel düzeneğinden ‘aldığı talimatları anlamasıyla’ benim İngilizceyi anlamam aynı değildir” (Searle, 2005, 343).
Anlam ve anlama kabiliyeti konusunda bir kavramsal karışıklık oluşmaması için Searle, bu kavramları insanın amaçlılığı (intentionality) ve bilişsel yetileri çerçevesinde ele alır. Bir makinenin aldığı talimatlar doğrultusunda bir işlemi başlatması ve programı uygulaması ile insanın bir ifadeyi anlaması arasında temel bir fark olduğu açıktır. Çince Odası argümanında, oda içerisindeki kişi bir yapay zekâ programı gibi Çinceye dair verilebilecek tüm bilgilere sahip olmasına rağmen hiçbir şey anlamaz. Öte yandan, İngilizceyi, anadili veya bildiği dil olduğu ölçüde gayet iyi anlar. Bu nedenle, bilgisayar programları—tümüyle biçimsel kurallara ve öğelere indirgenmiş sembolik işlemler (nitelemeler) gerçekleştiren sistemler—insan anlayışıyla doğrudan ilişkilendirilemez. Böyle bir bağlantı kurmak için herhangi bir gerekçe varmış gibi görünmemektedir.
Peki, günümüz yapay zekâ çalışmaları hangi noktadadır? Searle’ün eleştirileri hâlâ geçerli midir? Yapay zekâ alanında son yıllarda hızla gelişen makine öğrenmesi ve derin öğrenme teknikleri, Searle’ün vurguladığı semantik boyuta gerçekten ulaşabilmiş midir? Büyük dil modeli ChatGPT bize tam olarak ne vaat etmektedir?
Buraya kadar edindiğimiz altyapı bilgisinin ardından bazı noktaları açıklığa kavuşturmalıyız. İlk olarak, daha önce de belirttiğimiz gibi, Searle’ün eleştirileri güçlü yapay zekâya yöneliktir. Zayıf yapay zekânın geliştirilebileceğini kabul eder; ancak “insan gibi”, “insansı” ya da “insana çok yakın” bilinçli bir yapay zekânın, Turing’in öne sürdüğü perspektif içinde mümkün olmadığını savunur. Bizim tartışma odağımız ise, güçlü yapay zekâ tartışmasından hareketle, genel olarak Derin Öğrenme (Deep Learning) mimarisinin ve özelde Büyük Dil Modelleri (Large Language Models - LLM), özellikle de ChatGPT’nin ne sağladığını sorgulamak ve potansiyel sınırlarını ortaya koymaktır.
Günümüzde yapay zekâ araştırmaları ve projeleri önemli ölçüde ilerlemiş, yeni katmanlarla beslenerek daha karmaşık ve güçlü bir hâle gelmiştir. Bilgisayar ve iletken silikon teknolojilerindeki gelişmeler, yıllar önce ortaya atılan teorik fikirlerin hayata geçirilmesini ve sonuçlarının test edilmesini mümkün kılmıştır. Ayrıca, internetin yaygınlaşması ve kullanıcı sayısının olağanüstü boyutlara ulaşması, yapay zekâ sistemleri için yeni ve ilginç imkânlar doğurmuştur. Şimdi, bu gelişmelere biraz daha yakından bakalım.
Yapay zekâ alanı, insan zekâsını taklit edebilen makineler geliştirme hedefiyle başlamış ve zamanla farklı teknikler, algoritmalar ve modellerle geniş bir araştırma alanına dönüşmüştür. Yapay zekânın amacı, bilgisayar sistemlerinin problem çözme, öğrenme, dil anlama ve karar verme gibi insan benzeri yetenekler sergilemesini sağlamak olarak görülmektedir. Günümüzde yapay zekâ, özellikle Makine Öğrenimi (Machine Learning), Derin Öğrenme (Deep Learning) ve Doğal Dil İşleme (Natural Language Processing - NLP) gibi alanlarla öne çıkmaktadır. Makine öğrenimi, verilerden öğrenme yeteneğine sahip algoritmalar geliştirmeye odaklanır ve genellikle denetimli öğrenme, denetimsiz öğrenme ve pekiştirmeli öğrenme gibi yöntemlere dayanır. Makine öğreniminin bir alt dalı olan derin öğrenme ise, çok katmanlı yapay sinir ağları kullanarak veriden örüntüler çıkarır ve yüksek seviyeli özellikler öğrenir. Derin öğrenme modelleri özellikle görüntü tanıma, ses işleme ve doğal dil işleme gibi karmaşık alanlarda etkili çözümler sunar. Doğal Dil İşleme (NLP), bilgisayarların insan dilini anlamasını ve üretmesini sağlayan teknikler geliştirir. NLP’nin bir alt kategorisi olan Büyük Dil Modelleri (LLM - Large Language Models), büyük ölçekli metin veri kümeleri üzerinde eğitilerek insan benzeri dil üretme yeteneğine sahip yapay zekâ sistemleri oluşturmayı amaçlar. ChatGPT gibi modeller, bu tür sistemlerin en gelişmiş örneklerindendir.
Bu gelişmeler, çeşitli faktörlerin birleşimi sayesinde mümkün olmuştur. En önemli gelişmelerden biri Büyük Veri (Big Data) kümelerinin toplanması ve analiz edilebilmesiyle ilgilidir. Daha önce benzeri görülmemiş ölçekte dijital veriye ve bu verileri analiz (işleme) imkânına sahibiz. Büyük veri, yapay zekâ modellerinin eğitiminde kritik bir rol oynamakta ve daha doğru, verimli modellerin geliştirilmesine olanak tanımaktadır. Küresel ağların genişlemesi ve dijitalleşmenin yaygınlaşması sayesinde oluşan büyük veriler olmadan böylesi bir imkânımız yoktu. Gelişmiş algoritmalar, derin öğrenme sistemlerini ve yüksek işleme kapasitelerini etkileyerek yapay zekânın performansını önemli ölçüde artırmıştır. Bu algoritmalar, giderek daha karmaşık görevleri yerine getirebilecek hale gelmiştir. Artan hesaplama gücü, özellikle Grafik İşleme Birimleri (GPU) ve özel yapay zekâ donanımları sayesinde büyük ve karmaşık modellerin eğitilmesini ve çalıştırılmasını mümkün kılmaktadır. Bu donanımlar, yapay zekâ sistemlerinin verimliliğini artırarak daha hızlı işlem yapmalarını sağlamaktadır. Bulut Bilişim hizmetleri, büyük veri kümelerinin depolanması ve işlenmesi için ölçeklenebilir altyapılar sağlar. Bu, yapay zekâ projelerinin daha hızlı ve maliyet etkin bir şekilde geliştirilmesini sağlamaktadır. Dolayısıyla son yirmi yılda meydana gelen bu özel gelişmeler sayesinde YZ’nin günümüzdeki durumu, teknolojik gelişmenin daha yüksek kapasiteler sağlayan bir imkanı dahilinde ortaya çıkmıştır. Buradaki bazı şeyler aslında pekte yeni keşifler ya da icatlar değildir.
Büyük Dil Modelleri (LLM) gibi yapay zekâ sistemleri, veri, öğrenme ve algoritma süreçlerinden oluşan çok katmanlı bir yapıya sahiptir. Bu tür modellerin başarısında Veri Katmanı kritik bir rol oynar; büyük ölçekli metin veri kümeleri, modellerin eğitimi için kullanılır ve bu verinin kalitesi, modelin çıktılarının doğruluğunu etkiler. Öğrenme Katmanı, derin öğrenme tekniklerinin uygulandığı bölümdür; burada modeller, büyük metin veri kümeleri üzerinden istatistiksel örüntüler öğrenir ve dil üretme yeteneğini geliştirir. Büyük Dil Modelleri'nin en önemli bileşenlerinden biri Dönüştürücü (Transformer) Mimarisidir. Bu mimari, anlam ve bağlam ilişkilerini modellemek için dikkat (attention) mekanizmasını kullanır ve girdiye dayalı çıktılar üretir.
Tezimiz açısından en kritik katman, Öğrenme Katmanıdır. Özellikle Derin Öğrenme ve Büyük Dil Modelleri (LLM) gibi sistemlerin nasıl çalıştığını, hangi mimari yapıları kullandığını ve bunların teorik temellerini anlamamız gerekmektedir. Searle’ün Çince Odası düşünce deneyi, yapay zekâ sistemlerinin yalnızca sembolik işlemler yaptığını ve bu nedenle gerçek anlamda “anlama” kapasitesine sahip olamayacağını göstermeyi amaçlıyordu. Eğer bu eleştirinin günümüzdeki yapay zekâ sistemleri için hâlâ geçerli olup olmadığını sorgulayacaksak, önce Derin Öğrenme algoritmalarının ve özellikle Büyük Dil Modelleri’nin nasıl çalıştığını açıklığa kavuşturmalıyız. Bu modeller, büyük ölçekli veri setleri üzerinde eğitim alarak dildeki örüntüleri öğrenir ve bu örüntülere dayanarak bizim için anlamlı görünen metinler üretir. Ancak bu süreç, modelin gerçekten “anladığı” anlamına mı gelir? Searle’ün eleştirilerinin temelinde, “anlamanın” yalnızca sembolik manipülasyonlarla elde edilemeyeceği fikri vardı.
O hâlde, Derin Öğrenme ve Büyük Dil Modelleri tam olarak nasıl çalışmaktadır? Onlarda bulduğumuz şey, insandaki gibi anlam yaratabilen bir öğrenme süreci midir? Bu soruları netleştirmek için öncelikle Derin Öğrenme kavramını inceleyerek, bu sistemlerin bilişsel süreçlerle nasıl karşılaştırılabileceğini değerlendirmeliyiz.
Derin öğrenme, makine öğreniminin bir alt dalıdır ve bilgisayarların büyük miktarda veriden örüntüler öğrenmesini sağlayan bir tekniktir. Bu yöntem, çok katmanlı yapay sinir ağları kullanarak veriden anlamlı özellikler çıkarır ve bu bilgiyi kullanarak çeşitli görevleri yerine getirir. İnsan beyninin çalışma biçiminden ilham alarak geliştirilen bu modeller, özellikle karmaşık problemleri çözmede kullanılan bir yaklaşımdır. Derin öğrenme modelleri, büyük veri kümeleri üzerinde eğitilir ve bu süreçte verideki karmaşık örüntüleri tanımayı öğrenirler. Bu teknik, özellikle doğal dil işleme, görüntü tanıma, konuşma sentezi ve otomatik karar verme gibi birçok alanda yaygın olarak kullanılmaktadır.
Yapay sinir ağları, verileri işleyerek öğrenen ve kararlar veren matematiksel modellerdir. Bu ağlar, kademeli olarak birbirine bağlı nöronlardan oluşur ve her bir nöron, giriş verilerini işleyerek çıktılar üretir. Örneğin, bir kelime veya cümle girdi olarak verildiğinde, ağ içindeki nöronlar arasında karmaşık bir hesaplama süreci gerçekleşir ve buna ayarlama denir. Bu ayarlama, girdinin model tarafından tanımlanmasıdır.
Sinir ağları, birbiriyle bağlantılı nöronların katmanlar hâlinde organize edilişidir ve her katman, bir önceki katmanın çıktısını işleyerek daha yüksek seviyede özellikler çıkarır. Bu yapı, yalnızca genel yapay zekâ sistemlerinde değil, aynı zamanda Büyük Dil Modelleri (LLM) gibi gelişmiş dil modellerinin temel mimarisinde de kullanılır. Sinir ağları üç ana katmandan oluşur:
Giriş Katmanı (Input Layer): Ham metin verisini alır ve modelin işleyebilmesi için sayısal verilere dönüştürür.
Gizli Katmanlar (Hidden Layers): Giriş katmanından gelen veriyi işleyerek anlamlı özellikler çıkarır. Metindeki örüntüleri ve ilişkileri öğrenir. Sinir ağlarının derinliği, bu katmanların sayısıyla belirlenir.
Çıkış Katmanı (Output Layer): Gizli katmanlardan gelen veriyi kullanarak nihai çıktıyı üretir, yani modelin tahmin ettiği ya da oluşturduğu metni sunar.
Yapay sinir ağları, insan beyninin işleyişini taklit eden ve bilgi işlem sürecini gerçekleştiren bilgisayar modelleridir. Bu modellerde her bağlantı, bir ağırlık (weight) değeriyle çarpılır ve her nöron, bir önyargı (bias) değeri ekler. Ağırlıklar, girdi verisinin önemini temsil ederken, önyargılar modelin esnekliğini artırarak çıktıları ayarlamasına yardımcı olur. Sinir ağının öğrenme süreci, bu ağırlık ve önyargı değerlerinin veriye göre optimize edilmesiyle gerçekleşir.
Sinir ağlarının çıktısını belirlemek için aktivasyon fonksiyonları kullanılır. Örneğin, ReLU (Rectified Linear Unit) ve Sigmoid gibi fonksiyonlar, nöronların çıktısını sınırlandırarak modelin doğrusal olmayan ilişkileri öğrenmesini sağlar. Aktivasyon fonksiyonları, modelin karmaşık verileri daha etkili bir şekilde işlemesine yardımcı olur. Derin öğrenme modellerinin büyük veri kümeleri üzerinde eğitilmesi, aşağıdaki temel adımları içerir:
İleri Yayılım (Forward Propagation): Giriş verisi, sinir ağı boyunca ileri doğru yayılır ve her katman, veriyi işler. Sonuçta model, bir tahmin üretir.
Kayıp Hesaplama (Loss Calculation): Modelin tahmini, gerçek değerle karşılaştırılır ve bir kayıp (hata) değeri hesaplanır. Bu, modelin doğruluğunu değerlendirmeye yarar.
Geri Yayılım (Backward Propagation): Kayıp değeri kullanılarak, modelin ağırlıkları ve önyargıları güncellenir. Bu işlem, gradyan inişi (gradient descent) gibi optimizasyon algoritmaları kullanılarak gerçekleştirilir.
Tekrarlama (Iteration): Modelin doğruluğunu artırmak için bu süreç, binlerce kez tekrar edilir.
Bu adımlar, derin öğrenme modellerinin veriden öğrenmesini ve zamanla daha iyi tahminler yapmasını sağlar.
Örneğin, bir el yazısı tanıma sistemi düşünelim. Giriş katmanındaki her nöron, görüntüdeki bir pikseli temsil eder. Bu pikseller, ağırlık değerleriyle çarpılarak gizli katmanlara iletilir. Gizli katmanlarda, ağırlıkların çarpımları toplanır, önyargılar eklenir ve sonuç bir aktivasyon fonksiyonuna geçirilerek çıkış katmanına iletilir. Çıkış katmanında, her nöron belirli bir rakamı temsil eder ve en yüksek değere sahip olan nöron, tanınan rakamı gösterir.
Bu süreç, geri yayılım (backpropagation) algoritması kullanılarak optimize edilir. Hatalar, tahmin edilen değerler ile gerçek değerler arasındaki fark olarak hesaplanır ve ağırlıklar ile önyargılar, bu hataları minimize edecek şekilde güncellenir. Eğitim süreci boyunca, ağın performansı giderek artar ve model daha doğru tahminler yapabilir hale gelir.
Benzer şekilde, bir görüntü tanıma görevinde de modelin kedi ve köpek resimlerini doğru bir şekilde ayırt edebilmesi için binlerce etiketlenmiş görüntü üzerinde eğitilmesi gerekir. Her bir görüntü, sinir ağına girdi olarak verilir ve modelin (ağın) tahminleri doğru etiketlerle karşılaştırılarak hata hesaplanır. Geri yayılım mekanizması, ağırlıkların ve önyargıların bu hataları minimize edecek şekilde güncellenmesini sağlar.
Bu yöntem, yalnızca el yazısı veya görüntü tanıma ile sınırlı değildir. Yapay sinir ağları, doğal dil işleme (NLP), ses tanıma ve oyun oynama gibi birçok alanda yüksek doğrulukla çalışabilir. Derin öğrenme sistemlerinin gücü, büyük veri kümeleri üzerinde eğitilerek karmaşık örüntüleri öğrenebilme yeteneğinden gelmektedir.
Büyük Dil Modelleri (LLM), devasa veri kümeleri üzerinde eğitilmiş ve doğal dili tanımlama ve üretmede oldukça başarılı olan derin öğrenme modelleridir. Bu modeller, dildeki istatistiksel örüntüleri öğrenir ve bu bilgiyi kullanarak dil üretirler. Örneğin, ChatGPT gibi bir model, milyonlarca belge üzerinde eğitilerek insan benzeri metinler oluşturabilir.
Modelin çalışma prensibi, kelime ve cümlelerin kullanım sıklıklarına dayalı olasılıkları hesaplayarak (örüntüleri keşfetme), dilin akışını ve bağlamsal ilişkilerini modellemeye dayanır. Bu süreç, kelimeler arasındaki sentaktik ve istatistiksel bağıntıları vektör uzayında konumlandırarak (fonksiyon olarak hesaplayarak) bir tür sözdizimsel (sentaktik) ilişki ağını tahmin etmeye dayanır. Ancak bu, anlam üretmekten çok, dilin yapısını ve istatistiksel özelliklerini modellemektir.
LLM’lerin büyük metin veri kümeleri üzerinde eğitimi, kelimeler, cümleler ve metin parçaları arasındaki istatistiksel ilişkileri öğrenmesini sağlar. Bu süreç, modelin metin tahmini ve üretimi yapmasına olanak tanır. Sistemin işleyişindeki temel aşamalar şunlardır:
Veri Toplama ve Hazırlama: LLM’ler, kitaplar, makaleler, web sayfaları ve diğer metin kaynaklarından büyük miktarda veri toplar. Bu veriler temizlenir ve ön işleme tabi tutulur.
Model Mimarisi: Büyük Dil Modelleri genellikle Transformer adı verilen bir model mimarisine dayanır. Transformer, uzun menzilli bağımlılıkları ve bağlam ilişkilerini anlamak için dikkat (attention) mekanizmalarını kullanır. Bu mimari, encoder ve decoder olmak üzere iki temel bileşenden oluşur:
Encoder, girdi metnini işler ve gizli temsiller oluşturur. Bu temsiller, metnin anlamını ve bağlamını içerir.
Decoder, bu gizli temsilleri kullanarak anlamlı metin çıktıları üretir ve modelin bağlama uygun metin üretmesini sağlar.
Eğitim Süreci: Model, büyük veri kümeleri üzerinde eğitilerek dildeki kalıpları ve ilişkileri öğrenir. Eğitim sırasında, model girdi olarak aldığı metin verisini işler ve olasılıksal olarak en uygun kelime veya cümleyi üretir. Her kelimenin ve cümlenin bağlamını öğrenerek ve bu bilgiyi kullanarak bizim için anlamlı metinler üretir. Model, kelimeler arasındaki bağlamı güçlendirmek için binlerce, hatta milyonlarca tekrar ile optimize edilir.
Değerlendirme ve İnce Ayar: Modelin doğruluğunu ve performansını artırmak için belirli görevler üzerinde değerlendirme yapılır ve gerektiğinde ince ayar (fine-tuning) uygulanır. Bu süreç, modelin belirli alanlarda daha tutarlı ve güvenilir sonuçlar üretmesini sağlar.
Büyük Dil Modelleri, yalnızca metin üretmekle kalmaz; çeviri, metin özetleme ve soru-cevap sistemleri gibi çeşitli dil işleme görevlerinde de kullanılır. Ancak bu modellerin gerçekten ‘anlayıp anlamadığı’ sorusu tartışmalıdır. Sonraki bölümde, Searle’ün eleştirileri doğrultusunda, LLM’lerin yalnızca sentaktik manipülasyon yapıp yapmadığını ve semantik anlam üretebilme kapasitesine sahip olup olmadığını değerlendireceğiz.
İnsan öğrenmesi ile yapay zekâ öğrenmesi arasında temel farklar bulunmaktadır. İnsanlar, öğrenme sürecinde bilinçli farkındalık ve anlamlandırma kapasitesine sahiptir. İnsan beyni, deneyimleri ve çevresel etkileşimleri bütüncül bir şekilde işler ve öğrenme yalnızca istatistiksel örüntülerle sınırlı değildir.
Buna karşılık, yapay zekâ modelleri, yalnızca istatistiksel örüntüleri öğrenir ve bunlara dayanarak olasılıksal tahminlerde bulunur. Ancak burada tahmin kelimesini kullanmak bile yanıltıcı olabilir, çünkü insan zihnindeki tahmin etme süreci ile bir yapay zekâ modelinin yaptığı olasılık hesaplamaları arasında derin bir fark vardır. Yapay zekâ, yalnızca geçmiş verilere dayanarak en olası çıktıyı seçerken, insan zihni bundan çok farklı çıkarımlar yaparak tahmin yürütür. Bu fark, derin öğrenme modellerinin anlamlandırma yetisine veya bilinç sahibi olduklarına inanmayı güçleştirmektedir. (Stöffelbauer, 2023)
ChatGPT, Derin Öğrenme tekniklerini kullanan bir Büyük Dil Modeli olarak, insanın ömrü boyunca okuyamayacağı kadar büyük bir metin veri kümesini öğrenme girdisi olarak alır. Model, bu metinleri kelimelere ve parçalara (token’lara) böler. Her kelime ve harf, belirli bir vektör ile ilişkilendirilerek sayısal olarak temsil edilir. Bu süreç (temsil etme), aslında bir işaretleme işlemidir; çünkü yapay zekâ, bir hesaplama makinesi olduğu için verileri matematiksel olarak ifade etmek zorundadır. Vektör olarak işaretlenen bu metinler, büyük ölçekli bir veri kümesini oluşturur. Sinir ağı içindeki nöronlar olarak adlandırılan yapılar, aslında birbirleriyle ilişki içinde olan ve belirli hesaplamalar gerçekleştiren çok sayıda düğmelerdir. ChatGPT-4 için bu düğümlerin sayısı yaklaşık 1 trilyon civarındadır. Buna göre bir kelimenin, 1 trilyon düğmenin belirli bir yapılandırması ile temsil edildiği düşünülebilir (örn: 1’den 9’a kadar olan bir rakamsal ifadesi). Bu durum, yalnızca çok büyük sayıda kelimenin sayısal işaretlemesini yapmakla kalmaz; aynı zamanda kelimeler arasındaki bağlamsal ilişkileri de modelleyerek (işaretleyerek), dilin istatistiksel yapısını hesaplamaya olanak tanır. Buradan elde edilen şey, hesaplama makinemizin kapasitesinin gelişmiş boyutu sayesinde, karmaşık ve çoklu örüntü tanımlama ya da teknik ifadesiyle gelişmiş hesaplama kapasitesidir. Örüntüler, nöron dediğimiz düğmelerin belirlenmiş ayarlarındaki sayısal bilgiler olarak oluşmaktadır. Sonuç olarak, modelin “öğrenmesi” dediğimiz süreç, sinir ağı içindeki düğmelerin belirli matematiksel ayarlamalarına dayalı olarak oluşan bir örüntü tanıma mekanizmasıdır. (Stöffelbauer, 2023)
Kelimeler, vektörler aracılığıyla sayısal olarak temsil edildikten sonra, çok boyutlu bir uzayda belirli bir konuma yerleştirilir. Bu konumlandırma tamamen matematiksel bir işlemdir. Başka bir deyişle, hesaplama makinemizin zihni, çok boyutlu uzayda belirli koordinatlara sahip sayısal noktalardan oluşur. Bu kelime temsil sisteminde, kelimeler yalnızca belirli noktalara yerleştirilmekle kalmaz; aynı zamanda, aralarındaki mesafeler ve konum ilişkilerinden doğan simetri yapılarına göre de işlenir. Bu matematiksel ilişkiler, kelimeler arasındaki bağlamları ve örüntüleri hesaplamak için kullanılır. Örneğin, bir kullanıcı ChatGPT’ye yarım bir cümle girdiğinde, model bu girdiyi tamamen sayısal (koordinatlandırma hesaplaması) bir yapı olarak işler. Arka planda, kelimelerin vektörel koordinatları üzerinden bağlamsal bir analiz gerçekleştirilir ve bir sonraki kelimenin hangi olasılıkla en uygun olduğunu belirlemek için bir hesaplama yapılır. Model, en yüksek olasılığa sahip kelimeyi çıktı olarak sunar. Bu süreç, kelimeler arasındaki örüntülerin ve bağlamsal mesafelerin hesaplanmasıyla yönlendirilir.
Özetle, kullanıcının girdi olarak verdiği tüm kelimeler sayısal bir veri kümesine dönüştürülmektedir. Model, bu veriyi, eğitim sürecinde oluşturulan ve hâlihazırda mevcut olan ağırlık ayarlamalarına göre işler ve hesaplama sonucunda çıktı olarak bir metin üretir. Girdi olarak alınan metin, sayısal formda okunur ve bu işaretleme, sinir ağı sistemindeki yüksek sayıdaki düğmelerin ayarlarıyla eşleştirilerek (bir tanıma ya da tanımlama işlemi olarak düşünebiliriz) işlenir. Bu eşleştirme süreci, belirli matematiksel karşılıklar aracılığıyla bir tür sayısal eş-denklik olarak ifade edilebilir.
Modelin çalışma prensibi, mimari bileşenlerin koordineli şekilde çalışmasıyla oluşan büyük ölçekli bir sayısal işleme sistemine dayanır. Arka planda gerçekleşen tüm süreçler, sayısallaştırılmış temsil biçimleri üzerinden yürütülmektedir. Dolayısıyla, ChatGPT gibi büyük dil modelleri, yüksek kapasiteli sembol manipülasyonu gerçekleştiren hesaplama makineleri olarak nitelendirilebilir. İleri istatistik, özel mimariler ve hesaplama kapasitesi bizleri şaşırtan sonuçlar üretebilir ancak, bu sürecin herhangi bir semantik boyut barındırdığını iddia etmek dereyi görmeden paçaları sıvamaktan ibarettir.
Yapay zekâ ve bilinç arasındaki ilişki, felsefi tartışmaların merkezinde yer almaktadır. Searle, yapay zekânın doğasını ve imkanını değerlendirirken bilinç kavramı yerine anlama kavramına odaklanır ve bu tartışmayı sentaks ile semantik ayrımı etrafında şekillendirir. Searle’ün eleştirileri, yapay zekânın gerçek anlamda bilinç veya anlam yaratma kapasitesine sahip olmadığına işaret etmektedir. Derin öğrenme modelleri, büyük veri setleri üzerinde eğitilerek etkileyici sonuçlar üretebilir. Ancak, bu sistemlerin en popüler örneklerinden biri olan ChatGPT’nin insani bir düzeyde anlama yetisine veya bilince sahip olduğunu ya da olabileceğini söylemek mümkün müdür?
En kısa ifadeyle, Searle’e göre bütünüyle sayısal temsillere dönüştürülmüş olarak işleyen bu hesaplama makinesi, gerçek bir anlam, anlama veya bilinç içermemektedir. Yapay zekâ sistemlerinin yapay sinir ağları mimarisine dayanması da bu temel işleyişi değiştirmez; çünkü sistemin tamamı, iç içe geçmiş ve birlikte çalışan hesaplama birimlerinden oluşmaktadır. Kelimelerin çok boyutlu bir uzayda belirli konumlara sahip olması ve bu bilgilerin vektörlerle temsil edilmesi, herhangi bir semantik boyut içerdiği anlamına gelmez. Bu tür bir uzaya ancak sentaktik nesne ilişkileriyle (örüntüsel hesaplama) şekillenen bir uzay diyebiliriz, çünkü yapay zekânın kullandığı temsiller, nesne-anlam ilişkisine değil, sayısal işaretleme süreçlerine dayanır. Yapay zekânın anlam içerdiği yanılgısına düşmemizin temel sebebi, bağlamı işin içine katmamız ve modele, insan kapasitesinin çok ötesinde hesaplamalar yaparak yüksek isabetli tahminler üretmesini sağlayan yeni bir sayısal boyut katmış olmamızdır. (Alpaydın, 2022)
İnsan, bir metni okuyabilir ancak okuduğu metni her zaman anlayamayabilir. Metin, anadilinde ve kavramsal çerçevesine uygun, mantıklı ve tutarlı bir içerik sunsa bile, okuyucu metni öğrenmiş olsa da onun işaret ettiği şeyi tam olarak kavrayamayabilir. Bu, her insanın zaman zaman deneyimleyeceği olağan bir durumdur. Yapay zekâ için ise böyle bir durum söz konusu bile değildir, çünkü tüm süreci yalnızca sayısal verilerin hesaplanmasına dayanır. ChatGPT, girdi olarak verilen bir metni işler, kendince öğrenir ve metin içindeki istatistiksel örüntüleri belirleyebilir. Ancak metnin gerçek dünyada karşılık geldiği olguya veya Searle’ün vurguladığı gibi, semantik boyutuna herhangi bir erişimi yoktur. Yapay zekâ, dil aracılığıyla insan deneyimlerinin sembolleştirilmiş hâlinin, bir kez daha sembolleştirilmiş bir temsilini üretir ya da erişebilir. Başka bir deyişle, insanların dile indirgedikleri deneyimlerin ikinci dereceden -yeniden- sembolleştirilmiş temsilleri işlemektedir. Bu nedenle, iki insan arasındaki doğal dil kullanımında ortaya çıkan semantik boyuta dair doğrudan bir karşılığa sahip değildir.
ChatGPT’nin, büyük veri setleri ve milyarlarca parametre sayesinde, dili oluşturan ‘şey’leri ait oldukları uzaydan ve nesneden bağımsız biçimde, tamamen matematiksel olarak temsil etmesi—yani vektörel olarak (kendi çok boyutlu uzayında) konumlandırması (LeCun, 2015)—iki temel sebepten ötürü anlamın gerçekten içerildiği bir öğrenme sürecinden uzak olup, yalnızca yüksek kapasiteli bir sentaks illüzyonu yaratmaktadır. Birinci neden, söz konusu temsillerin tek tipli ve yalnızca niceliksel (matematiksel) oluşudur. İkinci neden ise kelimelerin, karşılık geldikleri gerçeklikten bağımsız, bir uzay-nesne ilişkisi içinde işlenmesidir. Nasıl ki yapay zekâ, bizim dil, gerçeklik ve anlam arasında kurduğumuz ilişkiyi bizim gibi kuramıyorsa, biz de yapay zekânın kendi iç sisteminde ve vektörel uzayında ne yaptığını tam olarak anlayamayabiliriz. Eğer yapay zekâya, ona sorduğumuz soruların yanıtlarını kendi anladığı biçimde vermesini isteseydik, ortaya çıkan çıktılar bizim dünyamızla ilişkili cümleler, görseller veya kavramsal temsiller değil, yalnızca kendi uzay-anlamsal bağlamında var olan sayısal veriler olurdu. Tıpkı Douglas Adams’ın Otostopçunun Galaksi Rehberi adlı eserinde, Derin Düşünce adlı süper bilgisayarın "evrenin ve hayatın anlamı nedir?" sorusuna kimsenin beklemediği bir yanıt vermesi gibi: 42. Hiç kimsenin anlamlandıramadığı ve tatmin edici bulmadığı bu yanıt (Adams, 2023, s.196-197), aslında yalnızca bir hesaplamanın sonucudur. Çünkü sayısal bir hesaplama makinesi olarak yapay zekâ, yalnızca karmaşık bir işlem gerçekleştirmektedir; bu işlem hiçbir semantik boyut taşımaz ve aynı zamanda isteme (intentionality) yetisinden yoksun olduğu için, "kendi anladığı" diyebileceğimiz bir kavrayıştan da tamamen mahrumdur. ChatGPT ve benzeri modeller, dili kullanmaz, dili işaretler ve bu işaretlemeler üzerinden hesaplama yapar. İnsanlar, kelimeler dizisinden anlamlar soyutlayabilir, bunları daha karmaşık fikirler oluşturmak için bir araya getirebilir ve genelleştirmeler yapabilir. Oysa yapay zekâ, yalnızca belirli görevler için istatistiksel veri setlerindeki örüntüleri işler ve bu örüntüler üzerinden çıktı üretir. Özetle, burada olup biten şey, kapasitemizin çok ötesinde gerçekleşen bir hesaplama sürecinin sonucunda, yapay zekânın gerçekten anlama yetisine sahip olduğu illüzyonuna kapılmamızdır.
Eğer sentaks ile semantik arasında yeterli olmasa da belirleyici bir ilişki ya da kesişim kümesi bulunduğuna dair bir kanıt keşfedersek, o hâlde makinenin insandan farklı bir ‘zihin’ yapısına sahip olmasına rağmen, yüksek gelişmişliğin ve sentaktik hesaplama kapasitesinin bir sonucu olarak, sentaks boyutundan semantiğe bir tür erişim sağlayabildiğini söyleme imkânımız olabilir. Ancak bu durum dahi, tamamen sentaks-uzay boyutunda işleyen bir yapının, amaçlılık (intentionality), idrak ve anlam boyutuna sahip bir insansılığı olduğunu ya da olabileceğini garanti etmeyecektir. Çünkü makine öğrenmesi, ne kadar karmaşık olursa olsun, bir insanın öğrenme sürecinden radikal biçimde farklı olup, salt sayısal-sembolik işlemlerden ibaret görünmektedir. Dolayısıyla, şu an tartışma odağımıza aldığımız Deep Learning > LLM > ChatGPT modelinin en basit ifadeyle semantik boyuta bir erişimi olduğunu söylemek güçtür. Bu modellerin potansiyel sınırları dâhilinde böyle bir imkânı barındırdığını ve dolayısıyla güçlü yapay zekânın gerçekleştirilebileceğini düşünmek de yanıltıcı olacaktır.
Elbette ki makinelerin, işlevselciliğin tanımladığı çerçevede zeki olduğunu yadsıyamayız. Ancak onların, aşina olduğumuz kapasitelerin çok ötesinde bulunan ve insanı hayrete düşüren yüksek hesaplama gücü bizi yanıltmamalıdır. Yapay zekânın durumu, bir deyişteki gibi, “parayla ev alabilirsiniz ama yuva alamazsınız; parayla kabuğunu alırsınız ama çekirdeğini alamazsınız” sözünü hatırlatmaktadır. Görünüşte zihni ya da zekâyı yeniden inşa etmeye çalışıyor olabiliriz, ancak bu, yalnızca beynin dış yapısını modellemekten ibaret olup, iç işleyişini anlamaktan hâlâ uzak bir noktada olduğumuzu göstermektedir.
Sözgelimi, bir düşünce deneyi olarak, makineler gibi inanılmaz bir bellek kapasitesine, hiç görmediğimiz hızda bir hesaplama yetisine ve devasa miktarda bilgiyi öğrenme kabiliyetine sahip bir insanın var olduğunu hayal edelim. Bu insanın, internette bulunan milyonlarca kitabı tarayarak bilgileri öğrendiğini ve değerlendirmeye tabi tuttuğunu, her soruya eleştiri getirilemeyecek kadar sağlam yanıtlar verdiğini ve adeta her şeyi biliyormuş gibi göründüğünü düşünelim. Eğer bu kişinin Tanrı olduğu fikrine ne kadar sıcak bakıyorsak, LLM modeline de ancak o kadar “insansılık” ve “anlam boyutu” yükleyebiliriz.
Bu çalışma, yapay zekânın öğrenme kapasitesini ve sınırlarını ele alarak Alan Turing’in işlevselci zekâ anlayışı ile John Searle’ün Çince Odası argümanını karşılaştırmalı bir şekilde incelemiştir. Turing’in, makinelerin insana benzer şekilde zeki olabileceği yönündeki görüşü, yapay zekâ araştırmalarının temelini oluştururken; Searle’ün, sembolik manipülasyonun anlama ve bilinç için yeterli olmadığını savunması, yapay zekâya ilişkin felsefi sınırları tartışmaya açmaktadır.
Çalışma boyunca, yapay zekâ sistemlerinin neyi öğrenebildiği ve neyi öğrenemediği sorusu, Turing ve Searle’ün görüşleri çerçevesinde irdelenmiştir. Turing, makinelerin belirli işlevleri yerine getirmesi durumunda zeki kabul edilebileceğini ileri sürerken, Searle, bu işlevselliğin bilinç ve anlam üretebilmek için yeterli olmadığını vurgulamaktadır. Searle’ün eleştirileri, yapay zekânın doğasını ve sınırlarını anlamamıza katkıda bulunarak, makinelerin yalnızca sembolik manipülasyon yaptığını ve bu sürecin gerçek anlam veya bilinçle eşdeğer olmadığını ortaya koymakla kalmaz, insan zekâsının ya da bilinçliliğinin sadece bir girdi-çıktı mekanizması olarak çalışmadığını ve “bilinç”in ortaya çıkışının yalnızca algoritma ve programlama ile olamayacağını anlamamızı da sağlamaktadır.
Bu bağlamda, Turing Testi’nin bir makinenin “zekâ” sahibi olduğunu doğrulamak için yeterli olup olmadığı sorgulanmalıdır. Çünkü bir makine, insan gibi davranışlar sergileyebilir ve hatta insanları kandırabilir; ancak bu, onun gerçekten anladığı veya bilinçli olduğu anlamına gelmez. Yapay zekânın "zekâ" ve "bilinç" kavramlarıyla nasıl ilişkilendirileceği konusundaki tartışma devam etmektedir. Searle’ün eleştirileri, yapay zekâ teknolojileri, derin öğrenme ve büyük dil modelleri gibi etkileyici performanslarına rağmen, araştırmaların yalnızca işlevsel ve biçimsel düzeyde kaldığını, anlam ve bilincin zorunlu boyutlarını göz ardı ettiğini göstermektedir. Bu bağlamda, yapay zekâ yalnızca hesaplama yapabilen bir araç olarak kalmaya devam edecek gibi görünmektedir. Bununla birlikte, Searle’ün eleştirileri, yapay zekâ teknolojisinin felsefi ve ontolojik temellerini yeniden değerlendirme gerekliliğini ortaya koymaktadır. Bu değerlendirme, yapay zekânın sınırlarını ve potansiyelini daha doğru bir şekilde anlamamıza yardımcı olacağı gibi zekâ ve bilinç konusunda hem felsefi hem de pratik açıdan önemli sonuçlar doğuracaktır.
Zekâ, Düşünce ve Bilinç: Birbirinden Bağımsız mı?
Peki, neden yapay zekâ projelerinde asıl tartışılan şey makinelerin zekâ sahibi olup olmadığıdır? Neden bilinç veya zihin sahibi olup olmadıkları ya da zekâya sahip olmalarının bilinç veya zihni de gerektirip gerektirmediği tartışmaya fazla konu edilmemektedir? Neden tümüyle insan gibi olmasa da bir tür zekâya ve düşünceye, hatta öğrenme yetisine sahip olduklarını iddia edebiliyoruz; ancak bunu, bilinç veya zihin sahibi olduklarını iddia etmeye kadar götürmüyoruz?
Bunun birkaç temel nedeni vardır. Öncelikle, bilinç ve zihin kavramları, diğer belirttiğimiz kavramlardan daha soyut ve muğlak görülmekte; insana ait oldukları dahi kesin çizgilerle tanımlanamamaktadır. Öte yandan, eğer makinelere bilinç atfedersek, bu onları yalnızca birer araç olarak görmekten çıkararak özgür irade gibi etik tartışmalara kapı aralamakta ve makinelerin de insan gibi bazı haklara sahip olması gerektiği fikrini doğurmaktadır. Son olarak, işlevselci çerçevede zekâ kavramı bilinç ve zihin ile ya doğrudan içkin bir ilişki içinde görülmekte ya da onlardan tamamen bağımsız bir fenomen olarak ele alınmaktadır. Bütün bu tartışmalara karşı şu temel soruyu sormamız gerekmektedir: Zekâ, düşünme ve öğrenme kavramları, bilinç ve zihne dair değerlendirmelerden bağımsızca açıklanabilir mi?
Pazarlama İllüzyonu mu, Gerçek Bir Olasılık mı?
Yapay zekâ projelerinin insansı veya insana benzer bir şekilde tanıtılması, büyük ölçüde ticari bir pazarlama stratejisinin sonucu gibi görünmektedir. Özel şirketlerin bu alanda baskın olması, insanları yapay zekânın neredeyse gerçekleştirilmiş bir hedef olduğu veya yakın zamanda başarılabileceği fikrine yönlendirmektedir. Elbette bu kanıya yönlendirmenin talep oranlarını yükseltmek, ilerleme-büyüme sağlamak ve kâr amaçlarıyla tutarlı bir yanı bulunmaktadır. Ancak konu üzerine çalışmalar yürüten uzmanlar, özelliklede felsefi çalışmalar yürüten uzmanlar, bu tür iddiaların oldukça spekülatif olduğunu ve gerçek anlamda insansı yapay zekâ olasılığının ciddi bir eleştiriye tabi tutulması gerektiğini vurgulamaktadırlar ki bu imkânın gerçekliği için doğru bir yol bulunsun.
Gelecekte, piyasa odaklı pazarlama stratejilerinin ve ürün kaygılarının yerini, gerçekten insansı yapay zekâ imkânını araştıran ve eleştirel bir yaklaşımla ilerleyen çalışmaların almasını umuyoruz. (Larson, 2022)
Bu çalışma, yapay zekânın sınırlarını, insan benzeri bilinç ve anlam üretme yeteneğinin olup olmadığını sorgulayarak, yapay zekânın geleceği ve potansiyeli hakkında daha derin bir kavrayış sunmaya çalışmıştır. Yapay zekânın insan gibi düşünebilme ve bilinç sahibi olma yetenekleri, mevcut teknolojik ve teorik çerçevelerle sınırlı görünmektedir.
Bu nedenle, yapay zekâ araştırmalarının insan benzeri bilinç ve anlam üretme kapasitesine sahip sistemler geliştirebilmesi için yeni yaklaşımlar ve paradigmalar geliştirmesi gerekmektedir. Bu da yapay zekânın gelecekteki gelişiminde kritik bir rol oynayacaktır.
Adams, Douglas. (2018). Otostopçu’nun Galaksi Rehberi. Nil Alt (çev.). 10.Basım. İstanbul: Alfa Yayınları.
Alpaydın, Ethem. (2022). Yapay Öğrenme: Yeni Yapay zekâ. 3. Baskı. İstanbul: Tellekt.
Demircioğlu, Erhan. (ed.). (2023). Descartes’tan Yapay zekâya Zihin. Ankara: Fol Yayınları.
Dilek, Gizem Öztürk. (2020). Yapay zekâ Problemine Felsefi Bir Bakış. Yayımlanmamış Yüksek Lisans Tezi. Yıldırım Beyazıt Üniversitesi.
Hofstadter, Douglas R. ve Dennett, Daniel C. (ed.). (2005). Aklın G’özü: Benlik ve Ruh Üzerine Hayaller ve Düşünceler. İstanbul: Boğaziçi Yayınevi.
Kaya, Aslı Üner. (2024). “Beyin, Bilinç ve Nedensel Güçler” Felsefe Dünyası, 79, 117-146.
Larson, Erik J. (2022). Yapay zekâ Miti: Bilgisayarlar Neden Bizim Gibi Düşünemez? Kadir Yiğit Us (Çev.). Ankara: Fol Yayınları.
LeCun, Yann; Bengio, Yoshua & Hinton, Geoffrey. (2015). “Deep Learning” Nature 521, 436–444. doi:10.1038/nature14539
LeCun, Yann; Browning, Jacob. (2022). “AI and The Limits of Language,” Noema.https://www.noemamag.com/ai-and-the-limits-of-language/ (Son erişim 17 Temmuz 2024)
Pylyshyn, Z. W. (1980). “Computation and cognition: Issues in the foundations of cognitive science.” Behavioral and Brain Sciences, 3(1), 111-132.
Stöffelbauer, Andreas. (2023). “How Large Language Models Work” Medium, https://medium.com/data-science-at-microsoft/how-large-language-models-work-91c362f5b78f, (Son erişim 17 Temmuz 2024)
Searle, John. (1980). “Minds, Brains, Programs,” The Behavioral and Brain Sciences 3, 417-424.
Searle, John. (2005). “Zihinler, Beyinler ve Programlar,” Hofstadter, Douglas R. ve Dennett, Daniel C. (ed.) Aklın G’özü: Benlik ve Ruh Üzerine Hayaller ve Düşünceler, içinde. (341-358). İstanbul: Boğaziçi Yayınevi.
Searle, John. (1990). “Is the Brain’s Mind A Computer Program?” Scientific American, 26-31.
Turing, A. M. (1950). “Computing Machinery and Intelligence.” Mind, 59 (236), 433-460.
Turing, A. M. (1936). “On Computable Numbers, with an Application to the Entscheidungsproblem”. Proceedings of the London Mathematical Society, 2(42), 230-265.
Turing, Alan. Braithwaithe, Richard. Jefferson, Geoffrey. Newman, Max. (2023). “Otomatik Hesaplama Makinelerinin Düşündüğü Söylenebilir mi?” Cengiz İskender Gözkan (çev.). Demircioğlu, Erhan. (ed.). Descartes’tan Yapay zekâya Zihin içinde, 194-222. Ankara: Fol Yayınları.
https://www.youtube.com/watch?v=wjZofJX0v4M&t=1395s (Son erişim: 17 Temmuz, 2024)
<100 subscribers
Share Dialog
theSahbaz.eth
Support dialog