Anthropic, Üç Çinli Yapay Zeka Firmasını Claude’u Yasadışı Kopyalamakla Suçladı

Anthropic, yasadışı distilasyon

DeepSeek, Moonshot AI ve MiniMax, 24.000 sahte hesap kullanarak 16 milyondan fazla etkileşimle Claude’un yeteneklerini çalmakla itham ediliyor.

Yapay zeka alanının önde gelen Amerikan şirketi Anthropic, Pazartesi günü yaptığı açıklamada üç Çinli yapay zeka laboratuvarını — DeepSeek, Moonshot AI ve MiniMax — “distilasyon” adı verilen tekniği kullanarak Claude modellerinin yeteneklerini yasadışı yollarla ele geçirmeye çalışmakla suçladı. Şirket, söz konusu laboratuvarların yaklaşık 24.000 sahte hesap aracılığıyla Claude ile 16 milyondan fazla etkileşim gerçekleştirdiğini ve bu faaliyetlerin hem Anthropic’in hizmet şartlarını hem de bölgesel erişim kısıtlamalarını ihlal ettiğini açıkladı.

Distilasyon Saldırısı Nedir?

Distilasyon, yapay zeka dünyasında meşru bir eğitim yöntemi olarak bilinmektedir. Bu teknikte daha küçük ve daha az yetenekli bir model, güçlü bir modelin çıktılarından öğrenerek eğitilir. Pek çok şirket kendi modellerini optimize etmek ve daha ucuz versiyonlar oluşturmak için bu yöntemi kullanmaktadır. Ancak Anthropic’e göre söz konusu Çinli laboratuvarlar bu tekniği rakip bir şirketin fikri mülkiyetini çalmak amacıyla kullanmıştır.

Bir distilasyon saldırısında, yüzlerce koordineli hesap aracılığıyla çok sayıda özenle hazırlanmış soru belirli yetenekleri hedef alarak bir modele iletilir. Bu yanıtlar daha sonra rakip modeli eğitmek için kullanılır. Tek bir soru zararsız görünebilir; ancak aynı sorunun yüz binlerce farklı varyasyonu, yüzlerce koordineli hesap üzerinden aynı dar yeteneği hedef aldığında, örüntü açıkça ortaya çıkmaktadır.

Şirketlere Yönelik Spesifik İddialar

MiniMax: En büyük saldırıyı gerçekleştiren şirket olarak öne çıkan MiniMax, 13 milyondan fazla etkileşim gerçekleştirmiştir. Anthropic, MiniMax’in yeni Claude modeli yayınlandığında trafiğinin neredeyse yarısını bu modele yönlendirdiğini gözlemleyebildiğini belirtmiştir. Saldırılar özellikle ajansal kodlama, araç kullanımı ve orkestrasyon yeteneklerini hedef almıştır.

Moonshot AI: Kimi modelleriyle tanınan Pekin merkezli Moonshot AI, 3,4 milyondan fazla etkileşim gerçekleştirmiştir. Anthropic, bu şirketin ajansal akıl yürütme, araç kullanımı, kodlama ve veri analizi, bilgisayar kullanımı ajanı geliştirme ile bilgisayarlı görüyü hedef aldığını tespit etmiştir.

DeepSeek: Her ne kadar en az etkileşimi (150.000’den fazla) gerçekleştiren şirket olsa da DeepSeek özellikle dikkat çekici bir yöntem kullanmıştır. Anthropic, DeepSeek’in Claude’dan tamamlanmış bir yanıtın arkasındaki iç mantığı adım adım yazmasını istediğini ortaya koymuştur. Bu yöntemle DeepSeek, büyük ölçekte düşünce zinciri eğitim verisi elde etmeyi amaçlamıştır. Üstelik siyasi açıdan hassas sorular (muhalefet mensupları, parti liderleri, otoriter yönetim gibi konular) için “sansür güvenli” alternatifler üretilmesi talep edilmiştir; bu durum DeepSeek’in kendi modellerini hassas konulardan uzak tutmak üzere eğitmek istediğine işaret etmektedir.

Saldırıların Teknik Altyapısı

Anthropic’in iddialarına göre üç laboratuvar da benzer bir yöntem izlemiştir. Claude’un Çin’de ticari olarak sunulmadığından, Çinli firmalar Claude’a ve diğer yapay zeka modellerine büyük ölçekte erişim sağlayan ticari proxy hizmetlerinden yararlanmıştır. Bu hizmetler, trafiği üçüncü taraf API’ler ve bulut platformları üzerinden dağıtan sahte hesap ağlarından oluşan “Hydra küme mimarileri” kullanmaktadır. Bir vakada, tek bir proxy ağının eş zamanlı olarak 20.000’den fazla sahte hesabı yönettiği ve tespiti güçleştirmek amacıyla distilasyon trafiğini normal müşteri talepleriyle harmanlayarak sunduğu belirlenmiştir.

Ulusal Güvenlik Riskleri

Anthropic, yasadışı distilasyon yoluyla elde edilen modellerin önemli ulusal güvenlik riskleri taşıdığını vurgulamıştır. Bu modellerin, biyolojik silah geliştirme ve kötü amaçlı siber operasyonlar gibi tehditleri önlemek için tasarlanmış güvenlik mekanizmalarından yoksun olduğu belirtilmektedir. Şirkete göre bu durum, otoriter hükümetlerin saldırgan siber operasyonlar, dezenformasyon kampanyaları ve kitlesel gözetleme için yapay zeka kapasitelerinden yararlanmasının önünü açmaktadır. Açık kaynaklı olarak yayımlandığında ise bu riskler daha da artmaktadır.

Sektördeki Bağlam: OpenAI ve Google’ın Uyarıları

Anthropic’in açıklaması, yapay zeka dünyasında giderek büyüyen bir endişe dalgasının parçasıdır. OpenAI, bu yılın başında DeepSeek’in ChatGPT çıktılarından yararlanarak kendi modellerini eğittiğini Kongre’ye sunduğu bir muhtırayla bildirmiştir. Alphabet bünyesindeki Google ise aynı gün Gemini modellerine yönelik distilasyon saldırılarına karşı uyarıda bulunmuştur. Tüm bu gelişmeler, ABD ile Çin arasındaki yapay zeka teknolojisi rekabetinin ne denli keskin bir hal aldığını gözler önüne sermektedir.

Çip İhracat Kontrolleriyle Bağlantı

Bu iddialar, ABD’nin Çin’e yönelik yapay zeka çipi ihracat kısıtlamalarının ne ölçüde uygulanması gerektiğine dair tartışmaların tam ortasında gündeme gelmiştir. Geçen ay Trump yönetimi, Nvidia gibi Amerikan şirketlerinin H200 gibi gelişmiş yapay zeka çiplerini Çin’e ihraç etmesine yönelik kısıtlamaları gevşetmiştir. Anthropic ise bu bağlamda önemli bir argüman öne sürmektedir: Distilasyon saldırıları, ihracat kontrolü mantığını güçlendirmektedir; zira bu tür saldırıların bu ölçekte gerçekleştirilebilmesi için gelişmiş çiplere erişim gerekmektedir.

Anthropic’in Aldığı Önlemler ve Çağrısı

Anthropic, bu saldırılara karşı çeşitli savunma önlemleri geliştirdiğini açıklamıştır. Bu kapsamda distilasyon saldırı örüntülerini API trafiğinde tespit eden sınıflandırıcı ve davranışsal parmak izi sistemleri devreye alınmış; diğer yapay zeka laboratuvarları, bulut sağlayıcıları ve yetkililerle teknik göstergeler paylaşılmış; eğitim hesapları ve güvenlik araştırma programları için gelişmiş kimlik doğrulama süreçleri uygulamaya konulmuştur.

Şirket aynı zamanda tüm yapay zeka sektörüne, bulut sağlayıcılara ve politika yapıcılara koordineli bir yanıt vermeleri çağrısında bulunmuştur. “Hiçbir şirket bunu tek başına çözemez” diyen Anthropic, bu ölçekte gerçekleştirilen distilasyon saldırılarının ancak ortak bir çabayla önlenebileceğini vurgulamaktadır. DeepSeek, MiniMax ve Moonshot AI, habere ilişkin yorum taleplerine henüz yanıt vermemiştir.

Kaynak: VentureBeat, TechCrunch, Bloomberg, CyberScoop, Tom’s Hardware  •  24 Şubat 2026

PAYLAŞ
Yukarı Kaydır