OpenAI’dan Büyük Temizlik: Aşk Dolandırıcılığı ve Çin Bağlantılı Operasyonlara Yasak

OpenAI Tehdit Raporu: ChatGPT Aşk Dolandırıcılığı ve Çin Operasyonlarında Kullanıldı

Yapay zekâ dünyasında güvenlik alarmı.



OpenAI, yayımladığı yeni tehdit istihbarat raporunda, ChatGPT’nin aşk dolandırıcılığı, sahte hukuk büroları ve Japonya Başbakanı’na yönelik itibarsızlaştırma kampanyalarında kötüye kullanıldığını açıkladı.

Şirket, tespit edilen tüm hesapları kapattığını ve elde edilen bulguları kolluk kuvvetleri ile sektör ortaklarıyla paylaştığını duyurdu.

Rapora göre yapay zekâ, suçlular için yeni bir silah değil; mevcut yöntemleri hızlandıran bir “çarpan etkisi” aracı haline gelmiş durumda.


Kamboçya Merkezli Aşk Tuzağı: Her Ay Yüzlerce Mağdur

Rapordaki en çarpıcı vakalardan biri, Kamboçya merkezli bir operasyon oldu.

Dolandırıcılar ChatGPT’yi kullanarak:

  • Sahte lüks bir flört platformu için logo tasarlattı

  • Gerçekte var olmayan kadınlara ait görseller üretti

  • Tanıtım içerikleri hazırlattı

Hedef kitle ise Endonezyalı erkeklerdi.

Mağdurlar platforma katıldıktan sonra, kendilerine sunulan sahte kadın profilleriyle etkileşime geçirildi. Ardından Telegram’a yönlendirilen kurbanlar, flört mesajları ve psikolojik baskı yoluyla artan ödemeler yapmaya ikna edildi.

İlginç bir detay da ortaya çıktı: Dolandırıcılar finansal tavsiye isterken meslek hanesine yanlışlıkla “scammer” yani “dolandırıcı” yazdı.


Sahte Avukatlar ve Uydurma Baro Kartları

OpenAI ayrıca:

  • Sahte hukuk büroları

  • Gerçek avukat kimlikleri taklit eden hesaplar

  • ABD kolluk kuvvetlerini taklit eden profiller

oluşturan bir ağın da yasaklandığını duyurdu.

Bu hesaplar, daha önce dolandırılmış kişileri tekrar hedef alıyordu. ChatGPT kullanılarak sahte New York Barosu üyelik kartı bile üretildi.

Bu yöntem, “ikinci dalga dolandırıcılık” olarak bilinen ve mağdurları yeniden tuzağa düşürmeyi hedefleyen bir modelin parçası.


Çin Bağlantılı Gizli Operasyon Günlüğü

Raporun en dikkat çekici bölümü ise Çin bağlantılı bir hesap oldu.

OpenAI araştırmacılarına göre, bir Çinli kolluk görevlisi olduğu düşünülen kullanıcı, ChatGPT’yi adeta bir operasyon günlüğü gibi kullandı.

Kullanıcı, Japonya Başbakanı Sanae Takaichi’yi itibarsızlaştırmaya yönelik bir kampanya planlamak için yardım istedi. ChatGPT bu talebi reddetti.

Ancak kullanıcı haftalar sonra geri dönerek kampanyaya ait durum raporlarını düzenletmeye çalıştı. Operasyonun Çin merkezli yerel yapay zekâ modelleri üzerinden yürütüldüğü değerlendirildi.

OpenAI araştırmacıları, raporlarda geçen bazı etiketlerin X, Pixiv ve Blogspot’ta gerçek paylaşımlara dönüştüğünü tespit etti. Ancak kampanyanın geniş bir etki yaratamadığı belirtildi.

OpenAI’nin istihbarat ekibinden Ben Nimmo bu süreci şöyle tanımladı:

“Bu, modern Çin tarzı sınır ötesi baskının bir örneği. Bu sadece dijital değil. Bu endüstriyel ölçekte.”


Evrim, Devrim Değil

Rapordan çıkan en önemli sonuç şu:

Yapay zekâ suçlulara yeni süper güçler kazandırmıyor.

Ancak geleneksel yöntemleri çok daha hızlı, ucuz ve ölçeklenebilir hale getiriyor.

Aşk dolandırıcıları daha fazla kişiye aynı anda ulaşabiliyor.

Sahte hukuk firmaları daha profesyonel görünebiliyor.

Devlet bağlantılı aktörler propaganda metinlerini daha hızlı üretebiliyor.

OpenAI bu tabloyu “evrim, devrim değil” olarak tanımlıyor.

Fakat yapay zekâ çağında evrim oldukça hızlı ilerliyor.


Dijipedya Yorumu

Bu gelişme iki kritik gerçeği gösteriyor:

  1. Yapay zekâ artık sadece üretkenlik aracı değil, jeopolitik bir alan.

  2. Dijital dolandırıcılık endüstriyel ölçekte büyüyor.

Önümüzdeki dönemde “AI destekli sosyal mühendislik” en büyük siber tehdit başlıklarından biri olacak.

Sorulması gereken asıl soru şu:

Yapay zekâyı kim daha hızlı adapte edecek? Savunma mı, saldırı mı?

PAYLAŞ

Yorum bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site istenmeyenleri azaltmak için Akismet kullanır. Yorum verilerinizin nasıl işlendiğini öğrenin.

Yukarı Kaydır