Anlık Bildirim

Yapay zekaya “kısa cevap ver” demeyin çünkü hayal görüyor

Yapılan yeni bir çalışmaya göre yapay zeka sohbet robotuna kısa ve öz konuşmasını söylemek, onun normalde olduğundan daha fazla halüsinasyon görmesine neden oluyor.

Yapay zekaya “kısa cevap ver” demeyin çünkü hayal görüyor Tam Boyutta Gör
Yapay zeka sohbet botlarına kısa yanıtlar vermeleri istendiğinde, gerçek dışı bilgiler üretme eğilimleri artıyor. Paris merkezli yapay zeka test şirketi Giskard tarafından yapılan yeni bir araştırma, bu durumun model doğruluğunu ciddi şekilde etkileyebileceğini ortaya koydu.

Giskard’ın yayımladığı blog yazısına göre, özellikle belirsiz veya tartışmalı konulara dair sorulara verilen kısa yanıtlar, yapay zeka modellerinin daha fazla "halüsinasyon" — yani gerçek dışı, uydurma bilgi — üretmesine neden oluyor. Şirketin araştırmacıları “Verilerimiz, sistem talimatlarında yapılan basit değişikliklerin bir modelin halüsinasyon görme eğilimini önemli ölçüde etkilediğini gösteriyor” dedi.

Halüsinasyonlar, yapay zekada çözülmesi zor bir sorundur. En yetenekli modeller bile bazen olasılıksal doğalarının bir özelliği olarak bir şeyler uydururlar. Dahası, OpenAI’ın o3'ü gibi yeni akıl yürütme modelleri önceki modellere göre daha fazla halüsinasyon görüyor ve bu da çıktılarına güvenmeyi zorlaştırıyor.

Kısa yanıt istemeyin

Yapay zekaya “kısa cevap ver” demeyin çünkü hayal görüyor Tam Boyutta Gör
Araştırmada, kullanıcıların yapay zekalara verdiği “kısa yanıt ver” gibi sistem komutlarının, modellerin doğruluk oranını düşürdüğü vurgulandı. OpenAI’ın GPT-4o modeli (ChatGPT'nin varsayılan modeli), Mistral Large ve Anthropic’in Claude 3.7 Sonnet gibi üst düzey modellerin bile kısa cevap talimatları karşısında hatalı bilgi üretme olasılığı yükseliyor.

Giskard, bu durumu modellerin yanlışları fark etmek ve düzeltmek için yeterli alan bulamamasına bağlıyor. Özellikle hatalı veya yanıltıcı sorulara sağlam itirazlar getirmek, detaylı açıklamalar gerektiriyor. Ancak model kısa cevap vermeye zorlandığında, bu açıklamalar yerini sessiz onaylara bırakabiliyor. Araştırmacılar, “Kısa tutmaya zorlandıklarında, modeller sürekli olarak doğruluk yerine kısalığı seçiyor” diye yazıyor.

Giskard’ın çalışması, yapay zekaların sadece kısa cevaplar karşısında değil, kullanıcıların kendinden emin şekilde sunduğu iddialara karşı da daha az itiraz ettiğini gösteriyor. Ayrıca kullanıcıların en çok beğendiği modellerin, her zaman en doğru cevapları veren modeller olmadığına dikkat çekiliyor.

Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin: DH App Gallery Uygulamasını İndir DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim