Yapay zeka gerçekten düşünüyor mu, yoksa yalnızca düşünüyormuş gibi mi davranıyor?
Son yıllarda yapay zeka, özellikle büyük dil modelleri (LLM’ler), insan dilini anlar gibi görünen etkileyici metinler üretebiliyor. Örneğin, ona bir metin yazdığınızda şu yanıtları alabilirsiniz:
“Harika, tam olarak ne demek istediğini anladım.”
“Doğru bir noktaya değindin, ancak ifadeyi biraz daha akıcı hale getirebilirsin.”
Bu cevaplar o kadar akıcı ve insana özgü ki, karşınızda bir insan varmış gibi hissedebilirsiniz. Peki, tüm bu etkileyici cevaplar gerçekten bir “anlam”dan mı doğuyor, yoksa yalnızca geçmiş verilerden türetilmiş ustaca tahminler mi?
Chinese language Room: Anlamadan Konuşmak
Üniversite yıllarımın ilk döneminde bu konuyu araştırırken John Searle’ın meşhur Chinese language Room deneyini keşfettim.
Peki, bu deney nasıl işliyor?
Hayal edin, küçük bir odadasınız ve hiç Çince bilmiyorsunuz. Kapının altından measurement Çince karakterlerle yazılmış sorular geliyor. Önünüzde kalın bir “rehber kitap” var; bu kitap measurement adım adım yapmanız gerekeneleri söylüyor:
“Eğer şu sembolü görürsen, onun yanına şu sembolü yaz.”
Siz hiçbir karakterin anlamını bilmiyorsunuz, ama kitapta yazanı harfiyen uyguluyorsunuz. Gelen her soruyu bu yöntemle cevaplıyor, kağıdı kapının altından geri veriyorsunuz.
Odanın dışındaki insanlar kağıda baktığında sizin Çince bildiğinizi düşünür; onlara göre siz dili gerçekten biliyorsunuzdur.
Gerçekte ise siz Çince anlamıyorsunuz. Sadece sembolleri, önceden tanımlanmış kurallara göre işliyorsunuz.
John Searle bu örnekle şunu anlatmak istiyor: Bilgisayarlar da tıpkı bu oda gibi çalışır. Doğru çıktıyı üretebilirler, ama ürettikleri şeyin anlamını bilmezler. Bilgi işleme vardır, ama “anlama” yoktur.
LLM’ler: Fashionable Zamanın Çince Odası
Bugünkü GPT gibi büyük dil modelleri, “Çince Oda”ya benzetilebilir. Bu modeller, gelen metni önce token denilen küçük parçalara ayırır. Bir token, bazen bir kelime, bazen de kelimenin bir bölümü olabilir.
Her token, vektör adı verilen sayısal bir temsile dönüştürülür. Bu vektörler, çok boyutlu bir koordinat sistemi içinde bir noktayı ifade eder. İki vektörün birbirine yakınlığı, bu token’ların anlam açısından birbirine ne kadar benzediğini gösterir.
Mannequin, bu vektörler üzerinde milyarlarca parametreye sahip yapay sinir ağı katmanlarını kullanarak matematiksel işlemler yapar. Her katmanda, token’ların temsilleri bağlam dikkate alınarak güncellenir.
Örneğin, ona “Ay neden parlar?” diye sorduğunuzu düşünün. Mannequin, soruyu analiz eder, “Ay” kelimesini uzay ve gökyüzü ile ilişkili vektörlere bağlar, ardından geçmiş verilerden öğrendiği ilişkileri kullanarak “Güneş ışığını yansıttığı için” cevabını üretir.
Mannequin, her adımda “en uygun” kelimeyi seçer ve bunu tekrarlayarak cümleyi kurar. Ortaya çıkan yanıt bazen inanılmaz derecede “anlamlı” görünür. Ancak bu “anlam”, aslında geçmiş verilerden öğrenilmiş istatistiksel ilişkilerin bir tahminidir.
Sonuç: Makine Düşünebilir mi?
“Düşünmek” dediğimiz şeyin tanımı nedir? Eğer düşünmek, doğru cevapları üretmekse, makineler çoktan düşünüyor. Ama eğer düşünmek, anlamak ve hissetmekse… henüz orada değiliz.
Peki ya sizce?
Birlikte tartışalım.