
İnanılır gibi değil ama gerçek. ChatGPT adeta bir doktor gibi davranıp tavsiyeler verdi ve neredeyse bir hayatın sonu olacaktı. Düşünsenize, sırt ağrılarınız var ve yapay zekaya soruyorsunuz. O ise size "endişelenecek bir şey yok" diyor. İşte tam da böyle oldu.
Olayın kahramanı—ya da kurbanı diyelim—33 yaşındaki bir adam. Adı açıklanmadı ama yaşadıkları tüyler ürpertici. Sırt ağrıları dayanılmaz hale gelince, ChatGPT'ye danışmaya karar veriyor. Belki de hızlı bir cevap alırım diye düşünüyor. Aldığı yanıt ise tam bir felaket: "Muhtemelen kas ağrısı, dinlen ve ağrı kesici al."
Gerçek Ortaya Çıkıyor: Korkunç Sonuç
Peki ya sonra? Ağrılar geçmek bir yana daha da artınca, mecbur kalıp hastaneye gidiyor. Doktorlar bir bakıyor ki durum hiç de ChatGPT'nin dediği gibi değil. Yapılan testler ve tetkikler sonucu korkunç gerçek ortaya çıkıyor: 4. evre kanser! Hem de kemiklere kadar sıçramış vaziyette.
Bu vaka, yapay zekanın—ne kadar gelişmiş olursa olsun—tıbbi teşhis koyma konusunda ne kadar tehlikeli olabileceğini bir kez daha gösterdi. Uzmanlar zaten sürekli uyarıyor: "Yapay zeka danışmanlık aracı değildir, özellikle de sağlık konusunda!" Ama maalesef bazı insanlar bu uyarıları duymazdan geliyor.
Peki Neden Bu Kadar Tehlikeli?
- Yanlış güven hissi: ChatGPT çok ikna edici konuşabiliyor. Sanki gerçekten bir uzmanmış gibi.
- Sorumluluk yok: Verdiği yanlış bilgiden dolayı hiçbir sorumluluğu bulunmuyor.
- Gecikmeye neden oluyor: Doğru teşhis ve tedavi için kaybedilen her an çok değerli.
Doktorlar bu tür durumlar için net konuşuyor: "Lütfen, canınızı tehlikeye atmayın. Bir ağrınız veya şikayetiniz varsa mutlaka gerçek bir doktora görünün." Sonuçta makineler—en akıllıları bile—hâlâ insan vücudunun karmaşıklığını tam olarak anlayamıyor.
Bu olay belki de bir dönüm noktası olur. İnsanlar artık yapay zekaya olan körü körüne güvenlerini sorgular. Umuyoruz ki hiç kimse benzer bir hataya düşmez ve sağlığını riske atmaz.