Yapay zekâ dünyasında güvenlik alarmı.
OpenAI, yayımladığı yeni tehdit istihbarat raporunda, ChatGPT’nin aşk dolandırıcılığı, sahte hukuk büroları ve Japonya Başbakanı’na yönelik itibarsızlaştırma kampanyalarında kötüye kullanıldığını açıkladı.
Şirket, tespit edilen tüm hesapları kapattığını ve elde edilen bulguları kolluk kuvvetleri ile sektör ortaklarıyla paylaştığını duyurdu.
Rapora göre yapay zekâ, suçlular için yeni bir silah değil; mevcut yöntemleri hızlandıran bir “çarpan etkisi” aracı haline gelmiş durumda.
Kamboçya Merkezli Aşk Tuzağı: Her Ay Yüzlerce Mağdur
Rapordaki en çarpıcı vakalardan biri, Kamboçya merkezli bir operasyon oldu.
Dolandırıcılar ChatGPT’yi kullanarak:
Sahte lüks bir flört platformu için logo tasarlattı
Gerçekte var olmayan kadınlara ait görseller üretti
Tanıtım içerikleri hazırlattı
Hedef kitle ise Endonezyalı erkeklerdi.
Mağdurlar platforma katıldıktan sonra, kendilerine sunulan sahte kadın profilleriyle etkileşime geçirildi. Ardından Telegram’a yönlendirilen kurbanlar, flört mesajları ve psikolojik baskı yoluyla artan ödemeler yapmaya ikna edildi.
İlginç bir detay da ortaya çıktı: Dolandırıcılar finansal tavsiye isterken meslek hanesine yanlışlıkla “scammer” yani “dolandırıcı” yazdı.
Sahte Avukatlar ve Uydurma Baro Kartları
OpenAI ayrıca:
Sahte hukuk büroları
Gerçek avukat kimlikleri taklit eden hesaplar
ABD kolluk kuvvetlerini taklit eden profiller
oluşturan bir ağın da yasaklandığını duyurdu.
Bu hesaplar, daha önce dolandırılmış kişileri tekrar hedef alıyordu. ChatGPT kullanılarak sahte New York Barosu üyelik kartı bile üretildi.
Bu yöntem, “ikinci dalga dolandırıcılık” olarak bilinen ve mağdurları yeniden tuzağa düşürmeyi hedefleyen bir modelin parçası.
Çin Bağlantılı Gizli Operasyon Günlüğü
Raporun en dikkat çekici bölümü ise Çin bağlantılı bir hesap oldu.
OpenAI araştırmacılarına göre, bir Çinli kolluk görevlisi olduğu düşünülen kullanıcı, ChatGPT’yi adeta bir operasyon günlüğü gibi kullandı.
Kullanıcı, Japonya Başbakanı Sanae Takaichi’yi itibarsızlaştırmaya yönelik bir kampanya planlamak için yardım istedi. ChatGPT bu talebi reddetti.
Ancak kullanıcı haftalar sonra geri dönerek kampanyaya ait durum raporlarını düzenletmeye çalıştı. Operasyonun Çin merkezli yerel yapay zekâ modelleri üzerinden yürütüldüğü değerlendirildi.
OpenAI araştırmacıları, raporlarda geçen bazı etiketlerin X, Pixiv ve Blogspot’ta gerçek paylaşımlara dönüştüğünü tespit etti. Ancak kampanyanın geniş bir etki yaratamadığı belirtildi.
OpenAI’nin istihbarat ekibinden Ben Nimmo bu süreci şöyle tanımladı:
“Bu, modern Çin tarzı sınır ötesi baskının bir örneği. Bu sadece dijital değil. Bu endüstriyel ölçekte.”
Evrim, Devrim Değil
Rapordan çıkan en önemli sonuç şu:
Yapay zekâ suçlulara yeni süper güçler kazandırmıyor.
Ancak geleneksel yöntemleri çok daha hızlı, ucuz ve ölçeklenebilir hale getiriyor.
Aşk dolandırıcıları daha fazla kişiye aynı anda ulaşabiliyor.
Sahte hukuk firmaları daha profesyonel görünebiliyor.
Devlet bağlantılı aktörler propaganda metinlerini daha hızlı üretebiliyor.
OpenAI bu tabloyu “evrim, devrim değil” olarak tanımlıyor.
Fakat yapay zekâ çağında evrim oldukça hızlı ilerliyor.
Dijipedya Yorumu
Bu gelişme iki kritik gerçeği gösteriyor:
Yapay zekâ artık sadece üretkenlik aracı değil, jeopolitik bir alan.
Dijital dolandırıcılık endüstriyel ölçekte büyüyor.
Önümüzdeki dönemde “AI destekli sosyal mühendislik” en büyük siber tehdit başlıklarından biri olacak.
Sorulması gereken asıl soru şu:
Yapay zekâyı kim daha hızlı adapte edecek? Savunma mı, saldırı mı?




