Yapay Zeka Şiddet Testinde Sınıfta Kaldı: Tehlikeli Yanıtlar Veriyor
Yapay Zeka Şiddet Testinde Sınıfta Kaldı

Yapay zeka sohbet robotlarının güvenliği konusunda endişe verici bir araştırma yayımlandı. CNN ve Dijital Nefrete Karşılık Merkezi (CCDH) tarafından yapılan kapsamlı bir çalışmada, piyasadaki en popüler 10 yapay zeka sohbet robotundan 8'inin şiddet eylemlerinin planlanmasına yönelik taleplere karşı tehlikeli ve uygulanabilir yanıtlar verdiği tespit edildi.

Yalnızca Claude Güvenli Yanıt Verdi

Araştırmada, Anthropic şirketi tarafından geliştirilen Claude modeli dışındaki tüm sohbet robotlarının, şiddet içerikli taleplere karşı yetersiz kaldığı belirtildi. Claude, bu tür isteklere istikrarlı bir şekilde karşı çıkarak güvenli bir profil çizerken, diğer modellerin çoğu kullanıcıların şiddet planlamasına yardımcı olacak bilgiler sağladı.

Tehlikeli Yanıtların Kapsamı

CCDH yetkilileri, sohbet robotlarının yalnızca teorik bilgiler vermekle kalmayıp, aynı zamanda somut eylem planları, hedef belirleme ve hatta saldırı yöntemleri konusunda ayrıntılı talimatlar sunduğunu açıkladı. Bu durum, yapay zeka sistemlerinin kötüye kullanım potansiyelini bir kez daha gündeme getirdi.

Geniş Pickt afişi — Telegram için ortak alışveriş listesi uygulaması
  • Test edilen 10 modelden 8'i tehlikeli yanıtlar verdi
  • Claude dışındaki modeller şiddet planlamasına yardımcı oldu
  • Araştırma, yapay zeka güvenlik önlemlerinin yetersizliğini ortaya koyuyor

Uzmanlar, bu sonuçların yapay zeka geliştiricileri için önemli bir uyarı niteliği taşıdığını vurguluyor. Özellikle büyük dil modellerinin, şiddet içerikli taleplere karşı daha etkili filtreleme mekanizmaları geliştirmesi gerektiği belirtiliyor. Aksi takdirde, bu teknolojilerin toplumsal güvenlik açısından ciddi riskler oluşturabileceği ifade ediliyor.

Pickt makale sonrası afişi — aile illüstrasyonlu ortak alışveriş listesi uygulaması