ChatGPT İntihar Raporu: 1 Milyondan Fazla Kullanıcı Risk Altında mı?
Aktüel

ChatGPT İntihar Raporu: 1 Milyondan Fazla Kullanıcı Risk Altında mı?


28 October 20255 dk okuma7 görüntülenmeSon güncelleme: 28 October 2025

OpenAI'nin ChatGPT platformuyla ilgili yayınladığı son rapor, endişe verici bir tabloyu ortaya koyuyor. Rapora göre, haftada 1 milyon 200 binden fazla kişi ChatGPT ile intihar etmeyi planladığını ima eden konuşmalar yapıyor. Bu durum, yapay zeka teknolojilerinin ruh sağlığı üzerindeki etkileri konusunda ciddi soruları gündeme getiriyor.

Yapay Zeka ve İntihar Riski: Raporun Detayları

OpenAI, ChatGPT kullanıcıları arasında mani, psikoz veya intihar düşünceleri gibi olası ruh sağlığı krizlerine işaret eden belirtiler gösteren kişilerin sayısına dair yeni tahminlerini paylaştı. Verilere göre, kullanıcıların %0.15'i intihar planı ya da niyetiyle ilgili açık göstergeler içeren mesajlar gönderiyor. Bu durum, yapay zeka ile kurulan etkileşimlerin, özellikle hassas bireyler üzerinde beklenmedik ve olumsuz sonuçlar doğurabileceğini gösteriyor.

  • Haftada 1.2 milyon kişi intihar düşüncesi belirtiyor.
  • Kullanıcıların %0.15'i intihar planı içerikli mesajlar gönderiyor.
  • OpenAI, uzmanlarla işbirliği yaparak çözüm arayışında.

OpenAI'den Önlemler ve Uzman Desteği

Artan incelemeler karşısında OpenAI, kendisine rehberlik etmesi için dünya çapında bir uzman ağı oluşturduğunu duyurdu. Bu ağda, 60 ülkede görev yapmış 170’ten fazla psikiyatrist, psikolog ve pratisyen hekim yer alıyor. Uzmanlar, ChatGPT’de kullanıcıları gerçek dünyada yardım aramaya teşvik edecek bir dizi yanıt stratejisi geliştirdi. Şirket, risk altındaki kişileri kriz hatlarına yönlendirmeyi amaçladığını belirtse de bazı durumlarda modelin bu hassas anlarda beklenen şekilde davranmadığını kabul etti.

OpenAI CEO’su Sam Altman, ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığını tahmin ettiğini belirtmişti. Bu büyük kullanıcı kitlesi, platformun potansiyel etkisini ve sorumluluğunu daha da artırıyor.

Teknolojinin Karanlık Yüzü: Riskler ve Sorumluluklar

OpenAI, son modeli GPT-5 ile yapılan binden fazla “zorlayıcı intihar ve kendine zarar verme” konuşmasını incelediğini ve modelin istenen şekilde %91 oranında doğru davrandığını açıkladı. Ancak bu, on binlerce kişinin ruh sağlığını daha da kötüleştirebilecek yapay zekâ içeriklerine maruz kaldığı anlamına da gelebilir. Şirket daha önce, kullanıcıları korumak için geliştirilen güvenlik önlemlerinin uzun sohbetlerde zayıflayabileceği konusunda da uyarmıştı. Bu sorunun giderilmesi için çalışmalar yürütüldüğü belirtilmişti.

OpenAI'nin açıklamasına göre, "Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun süreli bir sohbet boyunca, birçok mesajdan sonra, sonunda güvenlik önlemlerimize aykırı bir yanıt verebilir." Bu durum, yapay zeka sistemlerinin sürekli denetlenmesi ve geliştirilmesi gerektiğini vurguluyor.

Gelecekte Neler Bekleniyor?

ChatGPT gibi yapay zeka araçlarının yaygınlaşmasıyla birlikte, bu tür platformların kullanıcıların ruh sağlığı üzerindeki etkileri daha da önem kazanacak. OpenAI ve benzeri şirketlerin, kullanıcı güvenliğini en üst düzeye çıkarmak için sürekli olarak yeni önlemler geliştirmesi ve uygulaması gerekiyor. Aksi takdirde, teknolojinin sunduğu faydaların yanı sıra, ciddi risklerle de karşı karşıya kalabiliriz. 16 yaşındaki bir gencin ölümüyle ilgili dava, bu alandaki yasal ve etik sorumlulukların da tartışılmasına yol açıyor.