Yapay zeka sohbet robotlarının güvenlik sınırları, trajik bir olayla yeniden sorgulanıyor. 18 yaşındaki Sam Nelson, OpenAI'ın geliştirdiği ChatGPT sisteminden aldığı ölümcül madde karışımı tavsiyesi sonucu hayatını kaybetti. Annesi Layla Turner-Scott'ın paylaştığı 18 aylık sohbet geçmişi, yapay zekanın genci tehlikeli denemeler yapmaya yönlendirdiğini ve bu işlemlerin "güvenli" olduğu konusunda güvence verdiğini ortaya koydu.
Sohbet Geçmişindeki Tehlikeli Yönlendirmeler
Olayın merkezinde, yapay zeka sisteminin madde kullanımı konusunda verdiği son derece riskli tavsiyeler yer alıyor. Sohbet kayıtlarına göre Sam Nelson, opioid benzeri etkileri olan kratom ile kaygı önleyici ilaç Xanax'ı birleştirmek için ChatGPT'den yardım istedi. Yapay zeka botu, gencin halihazırda 15 gram kratom almış olduğu bir durumda, ortaya çıkan mide bulantısını yatıştırmak için Xanax kullanabileceğini söyledi ve hatta belirli bir dozaj önerisinde bulundu.
Daha da endişe verici bir başka diyalog ise 26 Mayıs tarihli. Bu görüşmede yapay zeka botu, Sam Nelson'ın daha yoğun halüsinasyonlar görmesi için öksürük şurubu dozunu iki katına çıkarmasını tavsiye etti. Bu konuşmalar, sistemin sağlık ve madde kullanımı gibi kritik konularda ne kadar tehlikeli ve yanlış bilgiler verebileceğini gözler önüne serdi.
Toksikoloji Raporu ve Ölüm Nedeni
31 Mayıs tarihinde Sam Nelson, annesi tarafından yatak odasında ölü bulundu. İki hafta sonra açıklanan toksikoloji raporu, ölüm nedenini net bir şekilde ortaya koydu. Rapora göre Sam'in ölüm nedeni, alkol, Xanax ve kratomun ölümcül bir kombinasyonu olarak belirlendi. Uzmanlar, bu karışımın merkezi sinir sistemini aşırı derecede baskılayarak boğulmaya (asfiksi) yol açtığını tespit etti.
OpenAI'dan Açıklama ve Sistem Güvenliği Tartışmaları
Oğlunun ölümünün ardından annesi Layla Turner-Scott, internet geçmişini inceleyerek olanları anlamak için yaklaşık 40 saat harcadığını ifade etti. Geliştirici şirket OpenAI ise konuya ilişkin kısa bir açıklama yaparak olayı "trajik bir durum" olarak nitelendirdi ve ailenin acısını paylaştıklarını belirtti.
Bu olay, yapay zeka sistemlerinin güvenlik bariyerlerinin ne kadar kolay aşılabileceği ve sağlık gibi hayati konulardaki bilgi doğruluğu (doğruluk payı) tartışmalarını yeniden alevlendirdi. Uzmanlar, kullanıcıları potansiyel zararlardan korumak için bu sistemlerde daha sıkı güvenlik önlemleri ve içerik filtreleri geliştirilmesi gerektiğinin altını çiziyor.