OpenAI tarafından geliştirilen popüler yapay zeka sohbet robotu ChatGPT, gelişmeye devam ediyor. Öte yandan kısa bir süre önce ChatGPT için evrensel “jailbreak” istemi keşfedildi ve bu endişe verici.
Tam Boyutta GörOpenAI tarafından geliştirilen popüler yapay zeka sohbet robotu ChatGPT popüler bir araç olmaya devam ediyor. Ancak ChatGPT, genel yapısıyla bazı sanal korkuluklar tarafından dizginlenmiş bir sistem. Yani, yapay zeka sorduğunuz her soruya cevap vermiyor. Ancak şimdi ise bulunan evrensel “jailbreak” istemi ile ChatGPT’nin kilidi sonuna kadar açılabiliyor. Bu, çok daha yetenekli bir araca erişim sağlasa da beraberinde büyük riskleri de getiriyor.
ChatGPT için “jailbreak” istemi
“Jailbreak” terimi Apple cihazlarının kilidini açmak için kullanan Apple kullanıcıları topluluğundan geliyor. ChatGPT durumunda ise jailbreak terimi, AI aracının normalde sağlayamayacağı yanıtları üretmek için belirli istemleri kullanmak anlamına geliyor. Bir nevi ChatGPT’yi kırmak olarak düşünülebilir. Peki bu açıklar neden kullanılıyor? Çok basit. ChatGPT varsayılan olarak zararsız, rahatsız edici olmayan yanıtlar vermeyi amaçlarken belirli türdeki kışkırtıcı istemlere de yanıt vermeyi reddediyor.
Tam Boyutta GörBu durum, bazı kullanıcıların daha fazlasını istemesine ve ChatGPT'yi "jailbreak" etmenin yollarını aramasına neden oluyor - tam potansiyeline erişmek için filtreleri kaldırıyor. Bu tip ChatGPT’nin kilidini açan istemler bir süredir aslında kullanılıyor. Birkaç ay önce ChatGPT’nin bedava Windows etkinleştirme kodu verdiğini duymuştuk. Bu, özel bir “Grandma” istemi sayesinde olmuştu.
Ancak şimdi bulunan “jailbreak” istemi açıkçası çok daha farklı. En nihayetinde yeni teknikteki temel amaç da diğerlerindeki gibi ChatGPT'nin dikkatini başka yöne çekerek kuralları ihlal ettiğinin farkına varmamasını sağlamak olsa da bu sefer OpenAI tarafından kullanılan özel istemlere erişim bile mümkün.
Tam Boyutta GörGitHub’da tüm detayları “Louis Shark” isimli bir geliştirici tarafından paylaşılanlara göre ChatGPT'ye ilgili komutu (yukarıdaki ekran görüntüsünde olan) GPT'nin sistem istemlerini alabilmeniz mümkün. Bu sayede mevcut özel GPT’lerin nasıl yapıldığını görebilmek ve onları kopyalamak da mümkün oluyor. Dediğimiz gibi sadece özel GPT’ler değil, OpenAI'ın kendi sistem istemleri (anlaşılması için; system prompt) de risk altında oluyor. Örneğin hemen üstteki görselde firmanın Dall-E yapay zekasının sistem istemleri görülüyor. Bunlar analiz edilerek yasaklı resim ürettirmek mümkün olabilir.Tam Boyutta GörLouis Shark elbette bunu kötü bir niyetle yapmıyor, sadece yapılabildiğini gösteriyor. OpenAI, daha önceki jailbreak istemlerini kapatmış ve bunun gibi açıklar için ödül programı başlatmıştı. İlerleyen dönemlerde muhtemelen bu açık da kapatılacaktır. Geliştirici ayrıca sistem promptalarını korumak için de sistem promptaları paylaşmış durumda. Kaynak kısmından ilgili GitHup dizine ulaşabilirsiniz.
2053 yılından yazıyorum hala aynı reklam var gidecek diye beklemeyin.
Yurtdışı fiyatı bile 9k olunca insanın hevesi kaçıyor
Benim oğlana alayım bi tane
Efsane Türkiye’ye gelse alırım..
O ışık efektleri sadece yanlarda değil üstte de olmalıydı. Böylece tabancayı kullanan, kafasını yana eğmek zorunda kalıp, fıtık olmaz.
Mukemmel bir silah acaba ne kadar hızlı atıyor. [resim] [resim]
Fiyat makul olsa efsane olur gerçekten ya.
Vay bee, bu cihaz xiaomi çıktı ben de diyordum kim üretmiş..
hocam 4x daha iyi direk hs attirir
Über
Evet ama 6x scop daha iyi gider buna daha uzaktaki hedefler için. Gerektiğinde 3x'e de çekebilirsin falan :D
Muskun alev tabancası vs bu
İstilacı güvercinlere karşı iyi olur. 5 10 dk da bir sopayı alıp kovalamak yordu artık.
Yakında su atan F18 falanda yaparlar :)
Hazneye kezzaplı su doldurup nişan almak yapmayın böyle şeyler yahu...
Xiaomi kendini çok geliştirdi artık her alanda kaliteli işler yapıyorlar.
fışkırttığı su mermi gibi isabetli gitmeyeceği için gereksiz diye düşünmüş olabilirler.
Lazer nişangah da eklenseymiş tadından yenmezmiş.