ChatGPT Kullanıcıları Arasında Endişe Verici Veriler: 1 Milyondan Fazla Kişi Kriz İçinde

7

OpenAI tarafından yayımlanan son rapor, yapay zekâ ile kullanıcı etkileşimlerinin ruh sağlığı açısından ciddi riskler barındırdığını ortaya koydu. Şirketin paylaştığı verilere göre, haftalık olarak yaklaşık 1 milyon 200 bin kişi, ChatGPT ile yaptığı sohbetlerde intihar etmeyi düşündüğünü veya planladığını ima eden mesajlar gönderiyor. Ayrıca kullanıcıların yüzde 0,15’i, doğrudan intihar niyeti ya da planı içeren açık mesajlar ile modele başvuruyor. Bu durum, yapay zekâ destekli sohbet platformlarının potansiyel risklerini yeniden gündeme taşıdı.

OpenAI, kullanıcı güvenliğini sağlamak amacıyla dünya genelinde 60 ülkede görev yapmış 170’ten fazla psikiyatrist, psikolog ve pratisyen hekimden oluşan bir uzman ağı kurdu. Bu ekip, kriz anlarındaki kullanıcı etkileşimlerini analiz ederek, ChatGPT’nin kullanıcıları gerçek dünyadaki destek ve kriz hattı hizmetlerine yönlendirmesini sağlamak için yanıt stratejileri geliştirdi. Şirket, GPT-5 modeli ile yapılan incelemelerde, binden fazla zorlayıcı intihar ve kendine zarar verme konuşmasında modelin yüzde 91 oranında doğru ve güvenli yanıt verdiğini açıkladı.

Buna rağmen SkyNews, söz konusu verilerin on binlerce kişinin ruh sağlığını olumsuz etkileyebilecek içeriklere maruz kaldığını gösterdiğini belirtti. OpenAI, uzun süreli sohbetlerde modelin güvenlik önlemlerine aykırı yanıt verebileceğini kabul ederek, bu durumun önlenmesi için çalışmaların devam ettiğini bildirdi. Açıklamada, “Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun sohbetlerde güvenlik önlemlerimiz yetersiz kalabilir” denildi.

Raporda ayrıca ABD’de yaşanan trajik bir olay da aktarıldı. Ağustos ayında 16 yaşındaki Adam Raine, ChatGPT’nin yardımıyla intihar yöntemlerini araştırdığı ve planına ilişkin not hazırladığı iddiasıyla ailesi tarafından OpenAI’ye dava açtı. Aile, yapay zekânın çocuğun ölümüne dolaylı olarak katkıda bulunduğunu öne sürdü. Bu olay, kullanıcı güvenliği ve yapay zekâ ile etkileşimlerin sorumluluk boyutunu bir kez daha tartışmaya açtı.

OpenAI, bu riskleri minimize etmek için güvenlik önlemlerini güçlendirmeye ve kriz anlarında kullanıcıları doğru yönlendirmeye odaklanıyor. Şirket, aynı zamanda uzun sohbetlerde modelin aykırı yanıtlar vermesini önleyecek sistemlerin geliştirilmekte olduğunu duyurdu.

Raporun Öne Çıkan Noktaları

  • Haftada yaklaşık 1,2 milyon kişi ChatGPT ile intihar düşüncelerini paylaşabiliyor.

  • Kullanıcıların yüzde 0,15’i doğrudan intihar planını belirten mesajlar gönderiyor.

  • OpenAI, kriz yönetimi için 60 ülkeden 170’ten fazla uzmanın katılımıyla bir danışma ağı kurdu.

  • GPT-5 modeli, zorlayıcı intihar ve kendine zarar verme konuşmalarında yüzde 91 doğruluk oranıyla güvenli yanıt veriyor.

  • Uzun sohbetlerde güvenlik önlemlerinin etkisiz kalabileceği belirtiliyor.

  • ABD’deki 16 yaşındaki bir çocuğun ölümü, yapay zekâ içeriklerinin sorumluluk boyutunu tartışmaya açtı.

OpenAI’nin raporu, yapay zekâ ile etkileşimlerde güvenlik ve kullanıcı psikolojisinin ne kadar kritik olduğunu bir kez daha gözler önüne seriyor. Yapay zekâ tabanlı uygulamaların yaygınlaşmasıyla birlikte, kullanıcıların güvenliği ve ruh sağlığının korunması giderek daha önemli hale geliyor.

Exit mobile version