Güney Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) tarafından geliştirilen yeni bir yöntem, yapay zeka dünyasında çığır açacak. Yapay zekanın en büyük sorunlarından biri olan 'halüsinasyon' (bilmediği konularda uydurma bilgiler verme) probleminin önüne geçilmesi hedefleniyor.
Isınma Eğitimi ile Yapay Zeka Sınırlarını Öğreniyor
Mevcut AI modelleri, karmaşık yapılarından dolayı bilmedikleri konularda bile aşırı özgüvenli cevaplar verme eğilimi gösteriyor. Bilim insanları, bu sorunu çözmek için insan beyninin gelişim sürecini model alan bir 'ısınma eğitimi' (warm-up training) yöntemi geliştirdi. Bu yöntem sayesinde yapay zeka, temel eğitimine başlamadan önce kendi sınırlarını ve neyi bilmediğini ayırt etmeyi öğreniyor.
Güvenilirlik Artacak
Nature Machine Intelligence dergisinde yayımlanan araştırmaya göre, bu yeni yaklaşım AI'nın özgüven seviyesini başlangıçta sıfıra yakın bir noktaya çekiyor. Böylece model, emin olmadığı durumlarda yanlış bilgi üretmek yerine, doğrudan bilgi eksikliğini kabul ediyor. Araştırmacılar, bu inovasyonun özellikle otonom araçlar ve tıbbi teşhis gibi hata payının hayati önem taşıdığı alanlarda güvenilirliği en üst seviyeye çıkaracağını vurguluyor.
Uzmanlar, yapay zekanın artık sadece doğru cevap vermesinin değil, ne zaman yanıldığını anlamasının da gerçek zeka yolunda kritik bir adım olduğunu belirtiyor. Bu gelişme, teknoloji dünyasında büyük yankı uyandırdı.



