Anlık Bildirim

Yapay zekalar akıllandıkça daha fazla yalan söylüyor

Yapay zeka dünyası için halüsinasyonlar Aşil’in topuğu olmaya devam ediyor. Yapay zekalar giderek daha akıllı hale gelirken görünüşe göre daha fazla uydurma bilgiler üretiyor.

Yapay zekalar akıllandıkça daha fazla yalan söylüyor Tam Boyutta Gör
Yapay zeka dünyası, bir süredir sessiz sedasız büyüyen ancak artık göz ardı edilemez hale gelen ciddi bir sorunla karşı karşıya: Halüsinasyonlar. Yani, dil modellerinin gerçeğe dayanmayan bilgileri güvenle sunması. Üstelik bu sorun, modeller daha "akıllı" oldukça azalmıyor — tam tersine, artıyor. Bu sorun, ilk üretken yapay zekalardan bu yana devam ediyor.

Yalanlar artıyor

Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada sorunlar küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek gibi teknoloji devlerinin geliştirdiği "akıl yürütme" odaklı yeni nesil yapay zeka modelleri, daha doğru ve tutarlı yanıtlar verme iddiasıyla yola çıkmıştı. Ancak gelinen noktada, bu modellerin önceki sürümlere kıyasla daha fazla hata yaptığı ve bir şeyler uydurduğu görülüyor.

Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora göre, OpenAI’ın geçtiğimiz ay duyurduğu "o3" ve "o4-mini" adlı yeni modelleri, şirketin iç değerlendirmelerinde bazı testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, önceki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, doğru bilgi verme yeteneği artmak yerine azalıyor.

Durum yalnızca OpenAI ile sınırlı değil. Google ve DeepSeek gibi rakip firmaların modelleri de benzer sorunu yaşıyor. Zira sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka endüstrisinde boy gösteren isimlerden birisi olan Vectara CEO'su Amr Awadallah, ne yaparsak yapalım “Her zaman halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.

Uzmanlara göre, bu sorun yalnızca kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Hatalı yanıtlar sunan bir yapay zeka sistemi, kullanıcı güvenini zedelediği gibi, ciddi iş kararlarının yanlış verilmesine de yol açabiliyor.

Sentetik verilere yönelmek kötü bir fikir mi?

Daha önceki haberlerde de değindiğimiz gibi, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya verileri geçtiğimiz yıl bitti. Ancak mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla veriye ihtiyaç duyuluyor. Yeni verilere ulaşmak için ise sentetik verilere, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Zira yapay bir modelin ürettiği verilerle eğitilen başka bir model, hataları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.

Sorunun çözümü var mı?

Halüsinasyon sorununu çözmeye odaklanan, yalnızca bu alanda faaliyet gösteren şirketler bile mevcut. Aslında endüstri, bu problemin varlığını en başından beri biliyordu; ancak çözüm sanıldığı kadar kolay değil. Bir sorunun çözümüne ulaşmadan önce sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, çünkü bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.

Dolayısıyla çözüm, göz önüne olan bir şey de olabilir veya yapay zekaya devrimsel bir yaklaşım getirecek yepyeni bir adım da olabilir.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim