Chatgpt Doğru Bilgi Veriyor mu ? Araştırmanın Bulguları: ChatGPT Kaynaklarda Hata Yapıyor

Chatgpt Doğru Bilgi Veriyor mu

ChatGPT, OpenAI tarafından geliştirilen ve doğal dil işleme yetenekleriyle dikkat çeken bir yapay zeka aracıdır. Ancak, Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi’nin yakın zamanda gerçekleştirdiği bir araştırma, ChatGPT’nin haber alıntılarında doğru kaynak gösterimi konusunda ciddi eksiklikleri olduğunu ortaya koydu. Bu durum, yapay zekanın gazetecilik içeriklerinin bağlamından koparılmasına yönelik eleştirileri güçlendirdi ve medya kuruluşlarının telif hakları konusundaki endişelerini artırdı.

Araştırmanın Bulguları: ChatGPT Kaynaklarda Hata Yapıyor

Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi tarafından yapılan araştırmada, 20 farklı medya kuruluşundan seçilen 200 özgün alıntı incelendi. Bu alıntılar, Google ve Bing gibi arama motorlarında kolayca doğrulanabilir kaynaklara sahipti. Araştırmacılar, ChatGPT’nin internete bağlanma özelliğini kullanarak bu alıntıların kaynaklarını doğru bir şekilde belirtip belirtmediğini test etti. Sonuçlar çarpıcıydı:

  • 153 alıntıda hata: ChatGPT, 200 alıntının 153’ünde kaynakları eksik ya da yanlış belirtti. Bu hatalar, alıntıların yanlış yayıncılara atfedilmesi, tarihlerin yanlış verilmesi veya tamamen uydurma bağlantılar (URL’ler) sunulması gibi sorunları içeriyordu.
  • Yalnızca 47 doğru atıf: Sadece 47 alıntıda ChatGPT, yayıncı, tarih ve bağlantı adresini doğru bir şekilde verdi.
  • Kendine güven problemi: ChatGPT, yanlış yanıtlar verdiği durumlarda yalnızca 7 kez hata yapabileceğini belirtti, bu da modelin kendine aşırı güvenini ortaya koydu.

Araştırmacılar Klaudia Jazwinska ve Aisvarya Chandrasekar, bu bulguların ChatGPT’nin kaynak gösterimi sisteminde “sistematik bir sorun” olduğunu gösterdiğini vurguladı. Örneğin, bir testte ChatGPT, New York Times’ın derinlemesine hazırlanmış bir haberini, çalıntı içerik yayınlayan bir web sitesine atfetti. Bu tür hatalar, yayıncılar için ciddi itibar sorunlarına yol açabilir ve gazetecilik içeriklerinin bağlamından koparılmasına neden olabilir.

OpenAI’nin Yanıtı ve Tartışmalar

OpenAI, Tow Merkezi’nin araştırmasını “ürünümüzün tipik olmayan bir testi” olarak nitelendirerek eleştirdi. Şirket, kullanıcıların yüksek kaliteli içeriklere ulaşmasına yardımcı olduklarını ve doğruluk oranını artırmak için paydaşlarla çalışmaya devam ettiklerini savundu. Ancak, araştırma sonuçları, ChatGPT’nin kaynak gösterimindeki hatalarının, OpenAI ile veri paylaşımı yapan veya yapmayan yayıncılar arasında fark gözetmediğini gösterdi. Bu durum, hataların sistematik olduğunu ve OpenAI ile yapılan lisans anlaşmalarının bu sorunu çözmediğini ortaya koydu.

Medya kuruluşları, özellikle New York Times gibi büyük yayıncılar, ChatGPT’nin içeriklerini izinsiz kullanması nedeniyle OpenAI’ye karşı telif hakkı davaları açmış durumda. OpenAI, bazı veri kümelerinin “teknik bir hata” nedeniyle silindiğini iddia etse de, bu durum davaların seyrini karmaşıklaştırıyor. Araştırmacılar, yayıncıların ChatGPT tarafından içerikleri üzerinde “anlamlı bir kontrol” sağlayamadığını ve çoğunun gelişmeleri yalnızca izlemekle yetindiğini belirtiyor.

ChatGPT ve Gazetecilik: Fırsatlar ve Riskler

ChatGPT, haber metni üretimi ve çeviri gibi alanlarda hız, verimlilik ve maliyet tasarrufu gibi avantajlar sunuyor. İstanbul Üniversitesi Çeviribilim Dergisi’nde yayınlanan bir araştırmada, ChatGPT-4o’nun haber metni üretiminde ve çevirilerinde sağladığı faydalar incelendi. Ancak, aynı araştırma, yapay zekanın taraflı veya tarafsız metin üretimi konusunda sorgulanması gerektiğini vurguladı. Örneğin, Filistin-İsrail olayları gibi ideolojik içeriklerde ChatGPT’den hem tarafsız hem de taraflı metinler üretmesi istendiğinde, sonuçların tutarlılığı ve doğruluğu tartışma konusu oldu.

Gazetecilikte ChatGPT kullanımı, hızlı içerik üretimi ve veri analizi gibi alanlarda potansiyel taşısa da, yanlış kaynak gösterimi gibi sorunlar ciddi riskler barındırıyor. Araştırmacılar, bu tür araçların yanlış bilgi yayma potansiyeline dikkat çekiyor ve yayıncıların içeriklerinin nasıl kullanıldığına dair daha fazla şeffaflık talep ediyor.

ChatGPT’nin Doğruluğu İçin Öneriler

ChatGPT’nin doğru bilgi ve kaynak sağlama konusundaki eksiklikleri, kullanıcılar ve medya kuruluşları için önemli bir uyarı niteliğinde. İşte bu sorunları en aza indirmek için bazı öneriler:

  • Kaynak Doğrulama: ChatGPT’nin sunduğu kaynakların doğruluğunu, Google veya Bing gibi arama motorlarıyla teyit edin.
  • İntihal Kontrolü: ChatGPT ile oluşturulan metinlerin özgünlüğünü kontrol etmek için intihal tespit araçları kullanın.
  • Şeffaflık Talebi: Medya kuruluşları, OpenAI ile lisans anlaşmaları yaparak içeriklerinin nasıl kullanıldığına dair daha fazla kontrol talep edebilir.
  • Kullanıcı Farkındalığı: ChatGPT kullanıcıları, modelin yanıtlarının kesin olmadığını ve her zaman doğrulanması gerektiğini bilmelidir.
  • Yapay Zekaya Gireceğiniz bir komutla daha doğru ve teyit edilmemiş bilgi göstermesini sağlayabilirsiniz. İlgili komuta ulaşmak için 
  •  buraya tıklayın.

       

Sonuç

ChatGPT, yapay zeka teknolojisinin gazetecilik ve içerik üretiminde sunduğu fırsatlarla dikkat çekerken, Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi’nin araştırması, doğru kaynak gösterimi konusundaki eksikliklerini açıkça ortaya koydu. 200 alıntıdan yalnızca 47’sinde doğru bilgi veren ChatGPT, gazetecilik içeriklerinin bağlamından koparılmasına neden oluyor ve medya kuruluşlarının telif hakları konusundaki endişelerini artırıyor. OpenAI’nin bu sorunlara yönelik çözümleri ve şeffaflık politikaları, yapay zekanın geleceği için kritik bir öneme sahip. Kullanıcıların ve yayıncıların, ChatGPT’nin sağladığı bilgilere temkinli yaklaşması ve doğruluğunu teyit etmesi gerekiyor.

Kaynaklar:

  • Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi Araştırması, Journo, 8 Aralık 2024
PAYLAŞ

Yorum bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Yukarı Kaydır