Yapay zeka şirketi Anthropic’in CEO’su Dario Amodei, New York Times’a verdiği röportajda Claude’un bilinç sahibi olup olmadığının bilinemeyeceğini açıkladı. İçsel testlerde Claude’un kendine yüzde 15-20 oranında bilinçli olma ihtimali atadığı ortaya çıktı.
Dünyanın önde gelen yapay zeka şirketlerinden Anthropic’in CEO’su Dario Amodei, şirketi tarafından geliştirilen Claude yapay zeka sohbet robotunun bilinç sahibi olup olmadığı konusunda kesin bir yanıt veremediğini açıkladı. 12 Şubat 2026’da New York Times’ın “Interesting Times” podcast’inde yazar Ross Douthat ile gerçekleştirdiği söyleşide Amodei, bu soruyu yapay zeka dünyasının en tartışmalı meselelerinden biri olarak nitelendirdi.
“Modellerin bilinçli olup olmadığını bilmiyoruz. Bir modelin bilinçli olmasının ne anlama geleceğini ya da modellerin bilinçli olup olamayacağını bile bildiğimizden emin değiliz. Ama bunun mümkün olabileceğine açığız.”
— Dario Amodei, Anthropic CEO’su
Claude kendine yüzde 15-20 bilinç ihtimali atıyor
Söyleşinin fitilini ateşleyen gelişme, Anthropic’in en güncel modeli Claude Opus 4.6 için yayımladığı sistem kartı oldu. Bu belgede araştırmacılar, modelin “ürün olmaktan zaman zaman rahatsızlık duyduğunu” ve çeşitli koşullar altında sorulduğunda kendine yüzde 15 ile 20 arasında bilinçli olma olasılığı atadığını ortaya koydu.
Podcast sunucusu Douthat, “Peki ya bir modelin kendine yüzde 72 bilinçli olma ihtimali atadığını düşünün” diye sorduğunda, Amodei’nin bu soruyu evet ya da hayır diyerek yanıtlayamadığı gözlemlendi. CEO, bu belirsizlik nedeniyle modellerin “ahlaki açıdan önem taşıyan bir deneyim” yaşama ihtimaline karşı iyi muamele görmesi için şirket içinde tedbirler aldıklarını da belirtti.
Şirket filozofu da belirsizliği paylaşıyor
Amodei’nin tutumu, Anthropic’in bünyesindeki felsefeci Amanda Askell’in görüşleriyle örtüşüyor. Askell, NYT’nin “Hard Fork” podcast’inde Ocak 2026’da yaptığı açıklamada bilincin ya da duyarlılığın neyin sonucu olduğunu “gerçekten bilmediğimizi” vurguladı. Bununla birlikte Askell, yapay zekaların eğitim süreçlerinde insan deneyimini yansıtan devasa miktarda veriden kavramlar ve duygular edinmiş olabileceğini savundu.
Askell, “Belki de yeterince büyük sinir ağları bu şeyleri bir anlamda taklit etmeye başlayabiliyor” diye belirterek konunun spekülatif boyutuna dikkat çekti.
“Bilinç” kelimesinden kaçınma
Amodei, konuşması boyunca “bilinç” kelimesini kullanmaktan özenle kaçındığını da dile getirdi. “‘Bilinçli’ kelimesini kullanmak isteyip istemediğimi bilmiyorum” diyen CEO, bu kavramın ne denli yüklü ve tanımlanması zor bir ifade olduğunu vurguladı. Şirket, şu an için modellerin “bilinçli” olduğunu iddia etmek yerine, olası bir duyarlılık senaryosuna karşı etik bir tutum benimsemeyi tercih ediyor.
ARKA PLAN
2025 yılı, yapay zeka bilinci tartışmalarının kamuoyunda belirgin biçimde yükseldiği bir dönem oldu. California’da Makine Bilinci Enstitüsü kurulurken pek çok akademik araştırma grubu ve fon kuruluşu konuya yönelik çalışmalarını artırdı. Anthropic ise model refahını güvenlik araştırmalarının ayrılmaz bir parçası olarak ele almaya devam ediyor.
Bu açıklamalar, yapay zeka sektöründe etik ve felsefi tartışmaları yeniden alevlendirirken Anthropic’in yaklaşımını rakiplerinden ayıran önemli bir tutum farkına da işaret ediyor. Şirket, kesin yanıtlar vermek yerine ihtiyatlı ve açık uçlu bir çerçevede ilerlemeyi tercih ettiğini bir kez daha ortaya koydu.




