Yapay Zeka Arama Araçlarında Alıntı ve Halüsinasyon Krizi Derinleşiyor
Yapay zeka teknolojilerinin hızla yaygınlaşması, bilgi ekosisteminde ciddi güven sorunlarına yol açıyor. Özellikle generatif arama araçları, kullanıcılara hızlı yanıtlar sunarken, haber içeriklerinde doğru kaynak gösterme konusunda sistematik başarısızlık sergiliyor. Columbia Üniversitesi Tow Center for Digital Journalism biriminin Mart 2025'te yayınladığı kapsamlı araştırma, bu krizi net bir şekilde ortaya koyuyor.
Araştırma Metodolojisi ve Çarpıcı Bulgular
Araştırmada, ChatGPT Search, Perplexity, Grok-3 gibi sekiz önde gelen yapay zeka tabanlı generatif arama aracı incelendi. 20 farklı haber yayıncısından seçilen 200 makaleden alınan alıntılarla gerçekleştirilen 1600 sorguda, araçlar genel olarak yüzde 60'ın üzerinde yanlış veya eksik yanıt verdi. Bu sonuçlar, AI araçlarının haber içeriklerini doğru atıf yapma konusunda yapısal bir sorun yaşadığını kanıtlıyor.
Premium Modellerin Yüksek Hata Oranları
İlginç bir şekilde, premium modeller daha yüksek güvenle ama daha fazla hatalı bilgi sunma eğiliminde. Örneğin, Perplexity Pro ve Grok-3 gibi ücretli sürümler, ücretsiz olanlara kıyasla daha doğru yanıtlar verse de, aynı zamanda çok daha yüksek oranda kendinden emin ama yanlış cevaplar üretiyor. Bu durum, kullanıcıların hatalı bilgiyi doğru kabul etmesine neden olarak ciddi bir güven yanılsaması yaratıyor.
Robots.txt Engellerinin Aşılması ve Lisans Sorunları
Araştırma, bazı AI araçlarının robots.txt engellerini aşarak bloke edilmiş içeriklere bile erişebildiğini gösterdi. Ayrıca, lisans anlaşmalarının dahi doğru atıf ve kaynak göstermeyi garanti etmediği ortaya çıktı. Araçlar sıklıkla sahte linkler, kopya içerikler veya sendikasyon versiyonları gösteriyor, bu da haber yayıncılarının trafiğini kesiyor ve gelir kaybına yol açıyor.
En İyi ve En Kötü Performans Gösteren Araçlar
Test edilen araçlar arasında en iyi performansı yüzde 37 hata oranıyla Perplexity gösterirken, en kötü performans yüzde 94 hata oranıyla Grok-3'te kaydedildi. Araçların çoğu, bilmiyorum demek yerine yanlış bilgi üretmeyi tercih etti ve hatalarını yüksek bir özgüvenle sundu. Bu durum, AI sistemlerinin tasarımında etik denetim eksikliğine işaret ediyor.
Bilgi Ekosistemi İçin Acil Önlemler Gerekiyor
Tow Center'ın önceki araştırmalarıyla tutarlı olan bu sonuçlar, sorunun tek bir şirkete veya modele özgü olmadığını, generatif arama ekosisteminin genelinde yapısal bir kriz olduğunu gösteriyor. Haber yayıncılığı ve güvenilir bilgi akışı için acil şeffaflık, zorunlu kaynak gösterme kuralları ve yayıncı haklarının korunması gerekiyor. Yapay zekanın muazzam potansiyeli, ancak şeffaf kurallar ve güçlü denetim mekanizmalarıyla sürdürülebilir hale gelebilir.