Kaspersky araştırmacıları, 2026 yılına ilişkin önemli yapay zeka ve siber güvenlik öngörülerini kamuoyuyla paylaştı. 22 Aralık 2025 tarihinde yapılan açıklamada, büyük dil modellerinin (LLM) savunma sistemlerini güçlendirirken, aynı zamanda siber suçlular için yeni fırsat pencereleri açtığı vurgulandı.
Deepfake Saldırıları Ana Akım Haline Geliyor
Önümüzdeki dönemde en dikkat çeken tehditlerden biri, deepfake teknolojilerinin siber saldırılarda yaygın bir araç haline gelmesi olacak. Şirketler, sentetik içeriklerin oluşturduğu riskleri giderek daha sık gündeme alıyor ve çalışanlarını bu tür saldırılara karşı bilinçlendirmek için eğitim programlarına yatırım yapıyor.
Deepfake içeriklerin hem hacmi hem de çeşitliliği artarken, bu tehditle karşılaşan yalnızca kurumlar değil. Bireysel kullanıcılar da sahte videolar ve ses kayıtlarıyla daha sık karşılaşıyor ve tehdidin doğasını daha iyi anlamaya başlıyor. Bu gelişmeler, deepfake'leri siber güvenlik gündeminin kalıcı bir unsuru haline getiriyor.
Ses Teknolojilerindeki İlerleme Tehdidi Büyütüyor
Deepfake'lerin kalitesinin, özellikle ses üretim teknolojilerindeki gelişmeler ve araçların kullanım kolaylığı sayesinde daha da artması bekleniyor. Görsel kalite zaten yüksek seviyedeyken, inandırıcı ses klonlaması önümüzdeki yılın öne çıkan alanı olarak görülüyor.
İçerik üretim araçlarının giderek basitleşmesi, teknik bilgisi sınırlı kişilerin bile birkaç tıklamayla orta düzeyde deepfake oluşturmasına olanak tanıyor. Bu durum, ortalama içerik kalitesini yükseltirken, tehlikeli teknolojilerin erişilebilirliğini artırıyor ve siber suçlular tarafından kullanılma riskini katlıyor.
Yapay Zeka, Saldırı ve Savunmanın Merkezinde
Kaspersky açıklamasında, yapay zekanın siber saldırı yaşam döngüsünün büyük bölümünde zincirler arası bir araç olarak kullanılacağı öngörülüyor. Tehdit aktörleri, halihazırda LLM'leri kötü amaçlı kod yazma, altyapı kurma ve operasyonel süreçleri otomatikleştirme için kullanıyor. Saldırganların aynı zamanda yapay zeka kullanım izlerini gizlemeye çalışacak olması, bu saldırıların analiz edilmesini daha da zorlaştıracak.
Açık kaynaklı (open-weight) modellerin hızla gelişerek kapalı modellere yetişmesi, kötüye kullanım potansiyelini artırıyor. Kapalı modeller daha sıkı kontroller sunarken, açık kaynaklı sistemler benzer kısıtlamalar olmadan yayılıyor. Bu durum, meşru ve dolandırıcılık amaçlı yapay zeka içeriği arasındaki sınırı bulanıklaştırıyor.
Güvenlik Tarafında Dönüşüm Devam Edecek
Yapay zeka aynı zamanda siber güvenlik savunmalarının da ayrılmaz bir parçası haline gelmeye devam edecek. Kaspersky Araştırma ve Geliştirme Grubu Yöneticisi Vladislav Tushkanov, ajan tabanlı sistemlerin altyapıları sürekli tarayarak zafiyetleri tespit edebileceğini ve soruşturmalar için bağlamsal bilgi toplayabileceğini belirtti.
Tushkanov, "Böylece manuel ve tekrarlayan iş yükü önemli ölçüde azalacak. Uzmanlar, veri aramak yerine önceden hazırlanmış bağlam üzerinden karar almaya odaklanacak. Paralel olarak güvenlik araçları, karmaşık teknik sorgular yerine doğal dilde komutlarla çalışılan arayüzlere evrilecek" ifadelerini kullandı.
Öte yandan, yapay zeka ile üretilen içeriklerin etiketlenmesi için güvenilir bir sistem oluşturma çabalarının süreceği, ancak mevcut etiketleme yöntemlerinin kolayca aşılabildiği kaydedildi. Bu nedenle, soruna çözüm getirmeyi amaçlayan yeni teknik ve düzenleyici girişimlerin gündeme gelmesi bekleniyor.