Anlık Bildirim

ChatGPT'nin karanlık yüzü: Kötü amaçlı yazılımlar üretebilir!

Gün geçtikçe popülerliğini artıran ChatGPT birçok alanda faydalı işler başarmaya devam etmekte. Ancak ChatGPT'nin karanlık tarafı olabilir ve kötü amaçlı yazılım üretebilir.
ChatGPT'nin karanlık yüzü: Kötü amaçlı yazılım üretebilir! Tam Boyutta Gör
ChatGPT, doğru ellerde bazı yararlı ve eğlenceli işler yaratmaya devam etmekte. Ancak bununla birlikte, yapay zekanın BT'nin geleceği için ciddi sorunlar yaratabilecek karanlık bir tarafı da var. Birkaç BT uzmanı yakın zamanda ChatGPT'nin tehlikeli potansiyelini ve uç nokta algılama ve yanıtlama (EDR) kullanarak yakalanması neredeyse imkansız olan polimorfik kötü amaçlı yazılım oluşturma yeteneğini özetledi.

Kodlar değişime uğrayabilir ve tespit edilmesi zorlaşır

EDR, kötü amaçlı yazılımları yakalamak için kullanılabilen bir tür siber güvenlik tekniği. Ancak uzmanlar, bu protokolün ChatGPT'nin yaratabileceği potansiyel zararla eşleşmediğini öne sürüyor. Polimorfik terimi burada devreye giriyor, zira kodlar değişime uğrayabilir ve tespit edilmesi çok daha zor olabilir.

ChatGPT gibi çoğu dil öğrenme modeli (LLM), yaratıcıları tarafından uygunsuz içerik üretmekten kaçınmak için filtrelerle tasarlandı. Bu filtreler belirli konulardan kötü amaçlı kodlara kadar uzanabilir. Ancak kullanıcıların bu filtreleri aşmanın yollarını bulması uzun sürmedi. İşte bu taktik ChatGPT'yi zararlı komut dosyaları oluşturmak isteyen kişilere karşı özellikle savunmasız hale getiriyor.

BT güvenlik mühendisi Jeff Sims yaptığı açıklamada, "Bu yeni teknikleri kullanan bir tehdit aktörü, tipik olarak yüksek düzeyde tespit edilebilir bir dizi davranışı alışılmadık bir kombinasyonda birleştirebilir ve modelin bunu kötü niyetli bir model olarak tanıyamamasından yararlanarak tespitten kaçabilir" diyor.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim