Yapay Zeka Platformları Suç Amaçlı Kullanımları Tespit Edip Önlem Alıyor
Yapay zeka teknolojisi, hayatın her alanında etkisini artırırken, ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude gibi büyük dil modelleri son kullanıcılar tarafından yoğun olarak kullanılıyor. Bu platformlar, araştırmadan sağlık bilgisi edinmeye kadar birçok amaçla yararlanılsa da, bazı kullanıcılar tarafından suç amaçlı olarak da kullanılabiliyor.
Suç Amaçlı Kullanım Örnekleri ve Platformların Tepkisi
Fiziksel saldırıların planlanması, çeşitli silah ve mühimmat üretimi gibi durumlar, yapay zekanın suç amaçlı kullanım örneklerini oluşturuyor. Platformlar, bu tarz kullanımlara karşı modellerini eğiterek taleplerin reddedilmesini sağlamaya çalışıyor. Ayrıca, sistemlerini suç amaçlı kullanan kullanıcıları tespit ederek hesaplarını kapatabiliyor ve gerekli görülmesi durumunda güvenlik birimlerine konuyla ilgili bilgi verebiliyor.
Kanada'daki Silahlı Saldırı Örneği ve Veri Mahremiyeti Tartışmaları
Yapay zekanın suç amaçlı kullanımına ilişkin somut bir örnek Kanada'da yaşandı. British Columbia eyaletinde 10 Şubat'ta bir okul ve evde düzenlenen silahlı saldırıda, aralarında saldırganın da bulunduğu 10 kişi hayatını kaybetti, 27 kişi yaralandı. Saldırgan 18 yaşındaki Jesse Van Rootselaar'ın ChatGPT'yi suç amaçlı kullandığı, yapay zeka platformunun sahibi OpenAI tarafından aylar önce tespit edildi.
Wall Street Journal'ın haberine göre, Van Rootselaar, geçen yıl haziran ayında ChatGPT'ye birkaç gün boyunca silahlı şiddet içeren senaryoları anlattı. Bu yazışmalar, ChatGPT'nin otomatik inceleme sistemi tarafından işaretlenerek ilgili OpenAI çalışanlarına iletildi ve kullanıcının hesabı kapatıldı. Şirket içerisinde bu paylaşımların kolluk kuvvetlerine bildirilmesi konusunda değerlendirme yapıldı ve gerekli kriterleri karşılamadığı belirlenerek güvenlik birimlerine konu iletilmedi. Bu durum, platformların erken önlem sistemi olarak kullanılıp kullanılamayacağı ve veri mahremiyeti tartışmalarını da beraberinde getirdi.
Gemini'nin Güvenlik Protokolleri ve Şirket Politikaları
Yapay zeka platformları, çeşitli mekanizmalarla suç amaçlı kullanımın önüne geçmeye çalışıyor. ChatGPT gibi Gemini da suç amaçlı kullanımları tespit etmek ve engellemek için tasarlanmış çok katmanlı güvenlik protokolleri uyguluyor. Gemini'nin kendisine gelen sorguları gerçek zamanlı olarak tarayan güvenlik filtreleri bulunuyor.
Bir kullanıcının silah yapımı talimatı, yasa dışı madde sentezleme, fiziksel şiddet planlama gibi taleplerde bulunması durumunda sistem bunu otomatik olarak reddediyor ve yanıt vermiyor. Ayrıca çok sayıda uzman ve bağımsız incelemeci, sistemin işaretlediği riskli konuşmaları düzenli olarak gözden geçiriyor. Google, politikalarına göre yakın ve ciddi bir fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor.
Acil durumlarda bilgi taleplerine ilişkin Google'ın sitesinde şu bilgiler yer alıyor: "Birinin ölümünü veya ciddi fiziksel zarar görmesini önleyebileceğimize makul şekilde inanıyorsak, örneğin bomba tehditleri, okul saldırıları, kaçırma olayları, intihar önleme ve kayıp kişiler vakalarında, bir devlet kurumuna bilgi sağlayabiliriz. Bu talepleri yine de geçerli yasalar ve politikalarımız ışığında değerlendiriyoruz."
Suç Öncesi Bildirimler ve Mevcut Düzenlemeler
Mevcut düzenlemeler, teknoloji şirketlerinin genellikle suç işlendikten sonra veri paylaşımını kapsıyor. Suç oluşmadan önce yapılacak bildirimler ise şirketlerin inisiyatifinde bulunuyor. Bu durum, yapay zeka platformlarının sorumlulukları ve etik sınırları konusunda devam eden tartışmaları gündeme getiriyor. Platformlar, kullanıcı güvenliğini sağlarken, aynı zamanda veri mahremiyeti ve yasal çerçeveler arasında denge kurmaya çalışıyor.



