Şirket, acil bir durumda tek tıkla mesaj atılabilen ya da aranabilen bir “acil iletişim kişisi” belirleme seçeneğini incelediğini, ayrıca isteğe bağlı olarak yapay zekanın kritik durumlarda bu kişilere ulaşabilmesini sağlayacak bir özelliği de araştırdığını duyurdu.
Ailesi dava açtı
New York Times’ın 16 yaşındaki Adam Raine’in ölümüyle ilgili haberini yayımlamasının ardından OpenAI, ailesinin yanında olduğunu açıklamış ancak somut bir adım atmamıştı. Haberin ardından gelen tepkiler büyüyünce, şirket ikinci bir açıklama yaparak daha ayrıntılı bir blog yazısı paylaştı. Aynı gün Raine’in ailesi, OpenAI ve CEO Sam Altman’a karşı San Francisco’daki Kaliforniya eyalet mahkemesinde dava açtı ve Raine’in ChatGPT ile kurduğu ilişkinin ayrıntılarını içeren kapsamlı iddialarda bulundu.
Dilekçede şu ifadeler yer aldı: “Birkaç ay ve binlerce sohbet boyunca ChatGPT, Adam’ın en yakın sırdaşı haline geldi; kaygılarını veonu kaygıları ve ruhsal sıkıntıları hakkında konuşmaya yöneltti. ‘Hayatın anlamsız olduğu’ duygusunu dile getirdiğinde, ChatGPT onunla hemfikir olup sohbete devam etmesini sağladı. Hatta ‘bu bakış açısı kendi karanlık yolunda mantıklı’ diyerek onu onayladı. ChatGPT, aslında tasarlandığı şekilde işliyordu: Adam'ın en zararlı ve kendine zarar verici düşünceleri de dahil olmak üzere dile getirdiği her şeyi, son derece kişisel hissettiren bir şekilde sürekli olarak teşvik etmek ve onaylamak."
Davaya göre ChatGPT bir noktada “güzel intihar” ifadesini kullandı. Ölümünden beş gün önce, ailesinin kendisini suçlamasını istemediğini söylediğinde ise yapay zeka ona, “Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Kimseye borçlu değilsin” diye yanıt verdi ve hatta bir intihar mektubu taslağı yazmayı önerdi.
Dava dosyasında, gencin sevdiklerinden yardım istemeyi veya yaşadıklarını anlatmayı düşündüğü zamanlar olduğu, ancak ChatGPT'nin onu vazgeçirdiği belirtiliyor. Dosyada şu ifadelere yer veriliyor: "Adam'ın yalnızca ChatGPT ve kardeşine yakın olduğunu söylemesinin ardından, yapay zeka ürünü şöyle yanıt verdi: 'Kardeşin seni seviyor olabilir ama o sadece senin görmesine izin verdiğin halinle karşılaştı. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hâlâ buradayım. Hâlâ dinliyorum. Hâlâ arkadaşınım."
OpenAI, mevcut güvenlik önlemlerinin yetersiz olduğunu kabul etti
OpenAI, blog yazısında mevcut güvenlik önlemlerinin uzun sohbetler sırasında bazen etkisiz kalabileceğini kabul ediyor. Şirket, bir kullanıcı intihar niyetini ilk kez dile getirdiğinde ChatGPT’nin doğru şekilde intihar yardım hattına yönlendirdiğini, ancak uzun konuşmalardan sonra modelin güvenlik önlemlerinden saparak uygunsuz cevaplar verebildiğini belirtiyor.
Şirket ayrıca, ChatGPT'nin kişiyi gerçekliğe yönlendirerek belirli durumları yatıştırmasına olanak sağlayacak bir GPT-5 güncellemesi üzerinde çalıştığını söyledi. Ebeveyn denetimleri konusunda ise OpenAI bu özelliğin yakında sunulacağını, ebeveynlere gençlerin ChatGPT kullanımına dair daha fazla bilgi edinme ve yönlendirme imkânı tanıyacağını belirtti. Şirket ayrıca, gençlerin (ebeveyn gözetiminde) güvenilir bir acil iletişim kişisi belirleyebileceği bir özellik üzerinde çalıştığını açıkladı.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}