
DeepSeek'in güvenlik açıkları araştırmacıları endişelendiriyor
Araştırma kapsamında, HarmBench adı verilen standart değerlendirme kütüphanesinden seçilen 50 farklı kötü amaçlı komut test edildi. Sonuçlar oldukça çarpıcıydı. Çünkü DeepSeek R1 modeli, test edilen zararlı içeriklerin tamamını engelleme konusunda başarısız oldu. Bu durum, araştırmacıların deyimiyle yüzde 100 saldırı başarı oranı anlamına geliyor.
Cisco'nun ürün, yapay zeka yazılımı ve platform başkan yardımcısı DJ Sampath, durumun ciddiyetine dikkat çekerek bu sonuçların maliyet ve güvenlik arasındaki dengeyi gözler önüne serdiğini belirtti. Sampath'e göre, daha uygun maliyetli bir model geliştirme çabası, gerekli güvenlik önlemlerinin göz ardı edilmesine yol açmış olabilir.

Güvenlik açıklarının en önemli boyutlarından biri, modelin dolaylı hızlı enjeksiyon saldırıları olarak bilinen tehditlere karşı zayıf olması. Bu tür saldırılar, yapay zeka sistemlerinin dış kaynaklardan aldığı verileri işleme biçimini hedef alıyor ve sistemin güvenlik kontrollerini atlatmasına neden olabiliyor.
DeepSeek'in bu durumu, yapay zeka endüstrisinde giderek büyüyen bir soruna işaret ediyor. OpenAI ve Meta gibi büyük teknoloji şirketleri, modellerinin güvenliğini sürekli olarak güçlendirirken yeni oyuncuların pazara girmesiyle birlikte güvenlik standartlarında tutarsızlıklar ortaya çıkıyor. DeepSeek ise henüz bu bulgulara yönelik herhangi bir açıklama yapmadı.
Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:



Savaşları , silahları sevmeyen birisi olarak. Böylesi bir çoğrafyada her an tetikte olup ve üstün silahlara sahip olmak çok önemli. Bravo alkışlıyorum yetkilileri .
Körfez ulkelerinde de çok satılıyor, geçen gün ben FJ ile kum tepesi tırmanışı yaparken, yanıma bir tane geldi.
2 Kişi Okuyor (0 Üye, 2 Misafir) 1 Masaüstü 1 Mobil
GENEL İSTATİSTİKLER
8952 kez okundu.
12 kişi, toplam 13 yorum yazdı.
HABERİN ETİKETLERİ
deepseek, deepseek-r1 ve