OpenAI tarafından geliştirilen popüler yapay zeka sohbet robotu ChatGPT, gelişmeye devam ediyor. Öte yandan kısa bir süre önce ChatGPT için evrensel “jailbreak” istemi keşfedildi ve bu endişe verici.
“Jailbreak” terimi Apple cihazlarının kilidini açmak için kullanan Apple kullanıcıları topluluğundan geliyor. ChatGPT durumunda ise jailbreak terimi, AI aracının normalde sağlayamayacağı yanıtları üretmek için belirli istemleri kullanmak anlamına geliyor. Bir nevi ChatGPT’yi kırmak olarak düşünülebilir. Peki bu açıklar neden kullanılıyor? Çok basit. ChatGPT varsayılan olarak zararsız, rahatsız edici olmayan yanıtlar vermeyi amaçlarken belirli türdeki kışkırtıcı istemlere de yanıt vermeyi reddediyor.
Ancak şimdi bulunan “jailbreak” istemi açıkçası çok daha farklı. En nihayetinde yeni teknikteki temel amaç da diğerlerindeki gibi ChatGPT'nin dikkatini başka yöne çekerek kuralları ihlal ettiğinin farkına varmamasını sağlamak olsa da bu sefer OpenAI tarafından kullanılan özel istemlere erişim bile mümkün.
ah dronlara karşı da bir akkor güncellemesi olsaydı tadınadan yenmezdi o zaman.
Ozaman 2025 yılında Türkiye olmayacak ?