
OpenAI CEO'su Sam Altman'ın, özellikle de son derece kişisel bilgiler söz konusu olduğunda yapay zeka asistanına aşırı güvenilmemesi konusunda yaptığı uyarının ardından bu durum daha da dikkat çekici hale geldi.
Yapay zeka araçlarının daha fazla yetenek kazanması ve duygusal anlayışlarının gelişmesiyle birlikte, birçok kişi terapi veya duygusal destek için sohbet robotlarına güvenmeye başladı. Ancak geleneksel terapideki hasta-doktor gizliliği gibi yasal korumalar, yapay zeka sohbetleri için geçerli değil.
Bir programa konuk olan Sam Altman bu konuya değinerek şu sözleri sarfetti: "İnsanlar hayatlarındaki en kişisel meseleleri ChatGPT ile konuşuyor. Özellikle gençler, bu aracı bir terapist ya da yaşam koçu gibi kullanıyor. İlişki sorunları yaşıyorlar ve ‘Ne yapmalıyım?’ diye soruyorlar. şu an, eğer bu sorunları bir terapist, avukat ya da doktorla konuşursanız, bu konuşmalar yasal gizlilik çerçevesinde korunuyor. Doktor-hasta, avukat-müvekkil gizliliği gibi. Ancak ChatGPT ile yapılan konuşmalarda henüz böyle bir yasal koruma yok.”
Özetle, yapay zeka araçlarıyla yapılan görüşmelerde yasal bir gizlilik bulunmadığı için, Altman bu tür bilgileri paylaşılırken dikkatli olunması gerektiğini söylüyor. Örneğin, kişi bir davada yer alıyorsa ve OpenAI’den bu konuşmaların mahkemeye sunulması istenirse, şirketin bu bilgileri gizli tutmasını sağlayacak yasal bir zorunluluk bulunmuyor. Altman, yapay zekanın da gizlilik hakkına sahip olması gerektiğini düşündüğünü belirtse de, teknolojinin hızlı gelişimine yasal düzenlemelerin aynı hızla yetişemediğini ifade ediyor.
Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin:

