
Yalanlar artıyor
Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada sorunlar küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek gibi teknoloji devlerinin geliştirdiği "akıl yürütme" odaklı yeni nesil yapay zeka modelleri, daha doğru ve tutarlı yanıtlar verme iddiasıyla yola çıkmıştı. Ancak gelinen noktada, bu modellerin önceki sürümlere kıyasla daha fazla hata yaptığı ve bir şeyler uydurduğu görülüyor.
Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora göre, OpenAI’ın geçtiğimiz ay duyurduğu "o3" ve "o4-mini" adlı yeni modelleri, şirketin iç değerlendirmelerinde bazı testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, önceki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, doğru bilgi verme yeteneği artmak yerine azalıyor.
Durum yalnızca OpenAI ile sınırlı değil. Google ve DeepSeek gibi rakip firmaların modelleri de benzer sorunu yaşıyor. Zira sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka endüstrisinde boy gösteren isimlerden birisi olan Vectara CEO'su Amr Awadallah, ne yaparsak yapalım “Her zaman halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.
Uzmanlara göre, bu sorun yalnızca kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Hatalı yanıtlar sunan bir yapay zeka sistemi, kullanıcı güvenini zedelediği gibi, ciddi iş kararlarının yanlış verilmesine de yol açabiliyor.
Sentetik verilere yönelmek kötü bir fikir mi?
Daha önceki haberlerde de değindiğimiz gibi, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya verileri geçtiğimiz yıl bitti. Ancak mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla veriye ihtiyaç duyuluyor. Yeni verilere ulaşmak için ise sentetik verilere, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Zira yapay bir modelin ürettiği verilerle eğitilen başka bir model, hataları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.
Sorunun çözümü var mı?
Halüsinasyon sorununu çözmeye odaklanan, yalnızca bu alanda faaliyet gösteren şirketler bile mevcut. Aslında endüstri, bu problemin varlığını en başından beri biliyordu; ancak çözüm sanıldığı kadar kolay değil. Bir sorunun çözümüne ulaşmadan önce sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, çünkü bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.
Dolayısıyla çözüm, göz önüne olan bir şey de olabilir veya yapay zekaya devrimsel bir yaklaşım getirecek yepyeni bir adım da olabilir.
Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:

