Uygulama ile Aç

Yapay zekaya “kısa cevap ver” demeyin çünkü hayal görüyor

Yapılan yeni bir çalışmaya göre yapay zeka sohbet robotuna kısa ve öz konuşmasını söylemek, onun normalde olduğundan daha fazla halüsinasyon görmesine neden oluyor.

Yapay zeka sohbet botlarına kısa yanıtlar vermeleri istendiğinde, gerçek dışı bilgiler üretme eğilimleri artıyor. Paris merkezli yapay zeka test şirketi Giskard tarafından yapılan yeni bir araştırma, bu durumun model doğruluğunu ciddi şekilde etkileyebileceğini ortaya koydu.

Giskard’ın yayımladığı blog yazısına göre, özellikle belirsiz veya tartışmalı konulara dair sorulara verilen kısa yanıtlar, yapay zeka modellerinin daha fazla "halüsinasyon" — yani gerçek dışı, uydurma bilgi — üretmesine neden oluyor. Şirketin araştırmacıları “Verilerimiz, sistem talimatlarında yapılan basit değişikliklerin bir modelin halüsinasyon görme eğilimini önemli ölçüde etkilediğini gösteriyor” dedi.

Halüsinasyonlar, yapay zekada çözülmesi zor bir sorundur. En yetenekli modeller bile bazen olasılıksal doğalarının bir özelliği olarak bir şeyler uydururlar. Dahası, OpenAI’ın o3'ü gibi yeni akıl yürütme modelleri önceki modellere göre daha fazla halüsinasyon görüyor ve bu da çıktılarına güvenmeyi zorlaştırıyor.

Kısa yanıt istemeyin

Araştırmada, kullanıcıların yapay zekalara verdiği “kısa yanıt ver” gibi sistem komutlarının, modellerin doğruluk oranını düşürdüğü vurgulandı. OpenAI’ın GPT-4o modeli (ChatGPT'nin varsayılan modeli), Mistral Large ve Anthropic’in Claude 3.7 Sonnet gibi üst düzey modellerin bile kısa cevap talimatları karşısında hatalı bilgi üretme olasılığı yükseliyor.

Ayrıca bkz.

Google Meet arka plan değiştirme yapay zekayla nasıl yapılır?

Giskard, bu durumu modellerin yanlışları fark etmek ve düzeltmek için yeterli alan bulamamasına bağlıyor. Özellikle hatalı veya yanıltıcı sorulara sağlam itirazlar getirmek, detaylı açıklamalar gerektiriyor. Ancak model kısa cevap vermeye zorlandığında, bu açıklamalar yerini sessiz onaylara bırakabiliyor. Araştırmacılar, “Kısa tutmaya zorlandıklarında, modeller sürekli olarak doğruluk yerine kısalığı seçiyor” diye yazıyor.

Giskard’ın çalışması, yapay zekaların sadece kısa cevaplar karşısında değil, kullanıcıların kendinden emin şekilde sunduğu iddialara karşı da daha az itiraz ettiğini gösteriyor. Ayrıca kullanıcıların en çok beğendiği modellerin, her zaman en doğru cevapları veren modeller olmadığına dikkat çekiliyor.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
17 Yorumun Tamamını Gör