Pentagon ile Anthropic Arasında “Yapay Zekâ Şartı” Krizi
ABD’de yapay zekâ cephesinde kritik bir kırılma yaşanıyor. Anthropic, ABD Savunma Bakanlığı ile yürüttüğü iş birliğinde iki alanda geri adım atmayacağını açıkladı: kitlesel iç gözetim ve tam otonom silahlar.
Şirket, Claude modelinin hâlihazırda ABD’nin sınıflandırılmış ağlarında, ulusal laboratuvarlarda ve çeşitli ulusal güvenlik kurumlarında kullanıldığını belirtti. Kullanım alanları arasında istihbarat analizi, modelleme ve simülasyon, operasyonel planlama ve siber operasyonlar yer alıyor.
Çin Bağlantılı Firmalara Erişim Kesildi
Anthropic, Çin Komünist Partisi ile bağlantılı bazı firmaların model erişimini sonlandırdığını ve bu nedenle yüz milyonlarca dolarlık gelirden vazgeçtiğini açıkladı. Ayrıca, Çin kaynaklı siber saldırı girişimlerini engellediklerini ve gelişmiş çiplere yönelik ihracat kontrollerini desteklediklerini ifade etti.
İki Net Kırmızı Çizgi
Şirketin açıklamasına göre Savunma Bakanlığı, “her türlü yasal kullanım” şartını sözleşmeye dahil etmek istiyor. Anthropic ise iki kullanım alanında açık ret pozisyonu aldı:
1. Kitlesel İç Gözetim
Yabancı istihbarat faaliyetlerine destek verilebileceğini söyleyen şirket, ABD vatandaşlarına yönelik AI destekli kitlesel veri analizi ve profil çıkarmanın demokratik değerlerle bağdaşmadığını savunuyor. Dağınık verilerin yapay zekâ ile birleştirilerek herkes için kapsamlı dijital profil oluşturulmasının temel özgürlükler açısından riskli olduğu vurgulanıyor.
2. Tam Otonom Silah Sistemleri
İnsan denetimli yarı otonom sistemlere destek verilebileceği belirtiliyor. Ancak insanı tamamen devre dışı bırakan ve hedef seçme ile angajmanı otomatikleştiren tam otonom silahlar için mevcut “frontier AI” modellerinin yeterince güvenilir olmadığı ifade ediliyor. Şirket, bu sistemlere korumasız şekilde model sağlamayacağını net biçimde duyurdu.
“Supply Chain Risk” Uyarısı
Anthropic, bu güvenlik önlemlerini kaldırmaması halinde sistemlerden çıkarılmakla ve “supply chain risk” olarak etiketlenmekle tehdit edildiğini ileri sürdü. Bu etiketin bugüne kadar ABD’li bir şirkete uygulanmadığına dikkat çekildi. Ayrıca Defense Production Act kapsamında zorlayıcı adımların gündeme gelebileceği iddia edildi.
Şirketin pozisyonu net: Ulusal güvenliği destekliyoruz, ancak kitlesel iç gözetim ve tam otonom silahlar için modellerimizi açmayız.
Bu açıklama, yapay zekâ şirketleri ile devletler arasındaki sınırların nerede çizileceğine dair tartışmayı yeni bir aşamaya taşıyor. Demokrasi, güvenlik ve teknoloji üçgeninde tansiyon yükselmiş durumda.




