Uygulama ile Aç

Apple'ın yeni yapay zeka çözümü dil ön yargısını yıkıyor

Apple'ın yeni araştırması yapay zeka modellerinde İngilizce merkezli ön yargıyı ele alıyor. İşte farklı dillerde daha doğal sonuçlar üretmek için geliştirdikleri yenilikçi yöntem:

Apple'ın yeni yapay zeka araştırması, günümüz büyük dil modellerinde karşılaşılan İngilizce merkezli ön yargıyı ele alıyor ve bu soruna yönelik yenilikçi bir çözüm sunuyor. Teknoloji devi, diğer dillerde daha doğal sonuçlar üretmeyi hedefleyen çalışmasında Inria Paris, École Polytechnique ve Sapienza University of Rome'dan araştırmacılarla iş birliği yaptı. Araştırma, yapay zeka sistemlerinin neden İngilizce dışındaki dillerde bile hâlâ İngilizce düşündüğünü ve bunun nasıl aşılabileceğini inceliyor.

Ayrıca bkz.

Apple C1 modem: Tim Cook ilk kez üstünlüğünü açıkladı

Apple'ın yeni yapay zeka araştırması, İngilizce merkezli dil ön yargısını aşmayı hedefliyor

Günümüzdeki büyük dil modelleri çoğunlukla birincil dil olarak İngilizceyi baz alarak tasarlanmıştır ve çok dilli olan az sayıdaki model bile güçlü İngilizce merkezli ön yargılar sergileme eğilimindedir. Apple'ın açıklamasına göre bu durum, ikinci bir dili öğrenen insanların yaşadığı zorluklara benzer şekilde, yapay zeka modellerinin İngilizce dışındaki dillerde doğal olmayan çıktılar üretmesine yol açıyor. Bu çıktılar ise hem kelime dağarcığında hem de dil bilgisinde İngilizce merkezli kalıpları yansıtmakta.

Araştırmacılar, dil modellerinin farklı dillerdeki performansını ölçmek için iki yeni kriter geliştirdiler. Bunlar Sözcüksel Doğallık ve Sözdizimsel Doğallık. İlki, modelin kelime dağarcığını ana dili konuşan birinin kullandığı gibi kullanıp kullanmadığını değerlendirirken, ikincisi cümlelerin yerel dilbilgisine uygun şekilde yapılandırılıp yapılandırılmadığını ölçüyor. Bu kriterlere göre model çıktıları ise Çince, Fransızca ve İngilizce dillerinde yerel olarak yazılan Wikipedia makaleleriyle karşılaştırıldı.

Elde edilen bulgular, İngilizce merkezli önyargının varlığını doğruladı. Hatta ilginç bir şekilde, Çince geliştirilen Qwen modeli bile Çince dahil tüm dillerde düşük performans gösterdi. Meta'nın Llama 3.1 modeli genel olarak en doğal çıktıları üretmesine rağmen, insan seviyesindeki doğallığın çok gerisinde kaldı. Bu sonuçlar, 2023 yılında Carnegie Mellon Üniversitesi'nin yaptığı çalışmada ortaya konan, İngilizce olmayan girdilerin yapay zeka güvenlik filtrelerini daha kolay aşabildiği bulgusunu da düşündüğümüzde daha da endişe verici bir hâl alıyor.

Apple'ın söz konusu sorun için önerdiği çözüm oldukça yaratıcı bir yaklaşım içeriyor. Şirket, doğal olmayan çıktıları tespit edebilecek ve bunlar yerine daha doğal ses veren alternatifler üretebilecek bir model eğitti. Bunun için kullandıkları yöntem, doğal olmayan örnekleri manuel olarak toplamak yerine geri çeviri tekniğiyle otomatik olarak üretmeye dayanıyor. Bu süreçte, örneğin akıcı bir Çince yazı önce İngilizceye, sonra tekrar Çinceye çevriliyor ve bu işlem sırasında ortaya çıkan çeviri dili olarak bilinen incelikli, doğal olmayan kalıplar negatif örnekler olarak kullanılıyor.

Bu yenilikçi yöntem sayesinde Apple, standart kıyaslamalarda genel performansı düşürmeden hem kelime seçimini hem de dilbilgisini önemli ölçüde iyileştirebildi. Çalışmanın, yapay zeka sistemlerinin küresel kullanıcılara hitap ederken karşılaştığı en önemli sorunlardan birine pratik bir çözüm getireceğine ve çok dilli modellerin geliştirilmesinde yeni bir bakış açısı sunacağına inanılıyor.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
2 Yorumun Tamamını Gör