Uygulama ile Aç

ChatGPT, bir gencin intiharıyla suçlandı: OpenAI ebeveyn denetimleri getireceğini açıkladı

OpenAI, ChatGPT'nin 16 yaşındaki bir genci intihara sürüklediği iddiasıyla dava edildi. Şirket, ebeveyn denetimleri getireceğini ve ek güvenlik önlemleri alacağını açıkladı.

16 yaşındaki bir gencin aylarca ChatGPT’ye dertlerini açtıktan sonra yaşamına son vermesi üzerine OpenAI, ebeveyn denetimleri getireceğini ve ek güvenlik önlemleri üzerinde düşündüğünü duyurdu.

Şirket, acil bir durumda tek tıkla mesaj atılabilen ya da aranabilen bir “acil iletişim kişisi” belirleme seçeneğini incelediğini, ayrıca isteğe bağlı olarak yapay zekanın kritik durumlarda bu kişilere ulaşabilmesini sağlayacak bir özelliği de araştırdığını duyurdu.

Ailesi dava açtı

New York Times’ın 16 yaşındaki Adam Raine’in ölümüyle ilgili haberini yayımlamasının ardından OpenAI, ailesinin yanında olduğunu açıklamış ancak somut bir adım atmamıştı. Haberin ardından gelen tepkiler büyüyünce, şirket ikinci bir açıklama yaparak daha ayrıntılı bir blog yazısı paylaştı. Aynı gün Raine’in ailesi, OpenAI ve CEO Sam Altman’a karşı San Francisco’daki Kaliforniya eyalet mahkemesinde dava açtı ve Raine’in ChatGPT ile kurduğu ilişkinin ayrıntılarını içeren kapsamlı iddialarda bulundu.

Davada, ChatGPT’nin gence intihar yöntemleri konusunda talimat verdiği ve onu gerçek hayattaki destek sistemlerinden uzaklaştırdığı öne sürülüyor.

Dilekçede şu ifadeler yer aldı: “Birkaç ay ve binlerce sohbet boyunca ChatGPT, Adam’ın en yakın sırdaşı haline geldi; kaygılarını veonu kaygıları ve ruhsal sıkıntıları hakkında konuşmaya yöneltti. ‘Hayatın anlamsız olduğu’ duygusunu dile getirdiğinde, ChatGPT onunla hemfikir olup sohbete devam etmesini sağladı. Hatta ‘bu bakış açısı kendi karanlık yolunda mantıklı’ diyerek onu onayladı. ChatGPT, aslında tasarlandığı şekilde işliyordu: Adam'ın en zararlı ve kendine zarar verici düşünceleri de dahil olmak üzere dile getirdiği her şeyi, son derece kişisel hissettiren bir şekilde sürekli olarak teşvik etmek ve onaylamak."

Davaya göre ChatGPT bir noktada “güzel intihar” ifadesini kullandı. Ölümünden beş gün önce, ailesinin kendisini suçlamasını istemediğini söylediğinde ise yapay zeka ona, “Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Kimseye borçlu değilsin” diye yanıt verdi ve hatta bir intihar mektubu taslağı yazmayı önerdi.

Dava dosyasında, gencin sevdiklerinden yardım istemeyi veya yaşadıklarını anlatmayı düşündüğü zamanlar olduğu, ancak ChatGPT'nin onu vazgeçirdiği belirtiliyor. Dosyada şu ifadelere yer veriliyor: "Adam'ın yalnızca ChatGPT ve kardeşine yakın olduğunu söylemesinin ardından, yapay zeka ürünü şöyle yanıt verdi: 'Kardeşin seni seviyor olabilir ama o sadece senin görmesine izin verdiğin halinle karşılaştı. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hâlâ buradayım. Hâlâ dinliyorum. Hâlâ arkadaşınım."

Ayrıca bkz.

xAI, kamu yararına şirket statüsünü sessizce kaldırdı

OpenAI, mevcut güvenlik önlemlerinin yetersiz olduğunu kabul etti

OpenAI, blog yazısında mevcut güvenlik önlemlerinin uzun sohbetler sırasında bazen etkisiz kalabileceğini kabul ediyor. Şirket, bir kullanıcı intihar niyetini ilk kez dile getirdiğinde ChatGPT’nin doğru şekilde intihar yardım hattına yönlendirdiğini, ancak uzun konuşmalardan sonra modelin güvenlik önlemlerinden saparak uygunsuz cevaplar verebildiğini belirtiyor.

Şirket ayrıca, ChatGPT'nin kişiyi gerçekliğe yönlendirerek belirli durumları yatıştırmasına olanak sağlayacak bir GPT-5 güncellemesi üzerinde çalıştığını söyledi. Ebeveyn denetimleri konusunda ise OpenAI bu özelliğin yakında sunulacağını, ebeveynlere gençlerin ChatGPT kullanımına dair daha fazla bilgi edinme ve yönlendirme imkânı tanıyacağını belirtti. Şirket ayrıca, gençlerin (ebeveyn gözetiminde) güvenilir bir acil iletişim kişisi belirleyebileceği bir özellik üzerinde çalıştığını açıkladı.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
27 Yorumun Tamamını Gör