Son Aramalarınız TEMİZLE
    Genel Hızlı Tercihler Sıfırla
    Header'ı Tuttur
    Header'da Teknoloji Gündemi
    Anasayfa
    Büyük Slayt ve Popüler Haberler
    Döşeme Stili Ana Akış
    Kaydırarak Daha Fazla İçerik Yükle
    İçerikleri Yeni Sekmede Aç
    Detay Sayfaları
    Kaydırarak Sonraki Habere Geçiş
    Renk Seçenekleri
    Gece Modu (Koyu Tema)
    Sadece Videolar için Gece Modu

    Intel: Nvidia'nın CUDA programlama dili ancak dipnot olabilir

    12 yıl
    16,2b
    01
    61
    Diğer
    İnceleme, Test ve Analiz Editörü
    Intel ve Nvidia arasında yaşanan gerilim dinecek gibi görünmüyor. Yonga seti ve doğal olarak entegre grafik işlemci pazarında rakip olan iki firma önümüzdeki yıl ile birlikte muhtemelen harici grafik kartı pazarında da rekabete tutuşacaklar. Çünkü bilindiği üzere Intel'in Larrabee projesi adı altında (şimdiye kadar son kullanıcıları yakından ilgilendirecek detaylı bilgiler açıklanmış olmasa da) harici grafik kartı pazarına giriş yapacağı biliniyor. Zaten işlemci-yonga seti kombinasyonunun sağladığı avantaj ile entegre grafik işlemci pazarını kontrol eden Intel'in an itibariyle harici grafik kartı çözümleri olmasa da yaygın olarak kullanılan IGP'leri sayesinde grafik işlemci pazarının etkin oyuncularından biri olduğunu biliyoruz. Nvidia GeForce 8 serisi ve G80 mimarisi ile birlikte programlanabilir shader teknolojisini ve CUDA dilini duyurmuştu. Firmanın CUDA programlama dili ile amacı başta bilimsel çalışmalar olmak üzere çeşitli kritik hesaplamaların ve yaygın olarak kullanılan bazı uygulamaların gpu (grafik işlem birimi) üzerinden cpu'ya (merkezi işlem birimi) göre daha hızlı şekilde yapılmasını sağlamaktı. Hatta forumlarımızda da detaylarını paylaştığımız üzere Nvidia yayınladığı son sunum dosyalarında yüksek tanımlı videoların dönüştürülmesinde CUDA programlama dili kullanılarak hazırlanacak uygulamaların kullanılması ile (şu an Nvidia'nın desteği ile hazırlanan böyle bir uygulama var) günümüz masaüstü işlemcilerinin en yüksek performanslı modellerine göre çok daha hızlı bir şekilde yapılabileceğinin de altını çizmişti. Nvidia'nın hamleleri bunlar ile sınırlı kalmamış ve firma özellikle GeForce GTX 200 serisi ile birlikte paralel işlem birimi olarak tanımlanan shader ünitelerine "core-çekirdek" olarak tanımlayarak kullanıma sunduğu 240 "çekirdekli" GT200 gpu'su ile Intel'in 4 çekirdekli mevcut işlemcileriyle kıyaslayan çeşitli verileri de sektör ile paylaşmıştı. CUDA için ciddi yatırım yapan, programlama yarışmaları düzenleyen hatta Illinois Üniversitesi dahilindeki CUDA programlama dilini ve paralel işlem teknolojisini esas alan araştırma merkezinin devamlılığı için 500.000$ bağışlayan Nvidia'nın bu söylem ve adımlarına yanıt niteliği taşıyan önemli bir açıklama da Intel'in üst düzey yöneticilerinden biri olan, daha da önemlisi işlemci tasarımı konusunda sektörün en saygın mühendislerinden biri olarak değerlendirilen Pat Gelsinger'dan geldi. Bilindiği üzere Nvidia'nın kurucusu ve tepe yöneticisi Jen-Hsun Huang bir süre önce verdiği bir demecinde rakip Intel'in Larrabee projesinin Power Point sunumlarında öteye gidemeyeceğini iddia etmişti. Intel'den Pat Gelsinger ise yaptığı açıklamasında CUDA programlama dilinden hiçbirşey olmayacağını ancak tarihe bir dipnot olarak düşülebileceğini belirtti. Pat Gelsinger yaptığı açıklamasında programcıların yeni bir mimari öğrenecek yeterli vakte sahip olmadığını, 10x, 20x daha yüksek performans iddiası ile ortaya atılan her yeni programlama dilinin de aynı sorundan müzdarip olduğunu belirtti. Gelsinger bu açıklamasını Sony'nin Cell mimarisini örnek göstererek destekledi. Gelsinger'e göre benzer şekilde günümüzde yaygın olarak kullanılan mimariye karşı ciddi performans sıçraması vaat eden Cell mimarisinin malesef programcılar tarafından yaygın şekilde desteklenmediğini sözlerine ekledi. Intel'in Larrabee kod adı altında hazırladığı grafik işlem teknolojisi ise temel olarak firmanın endüstri standardı haline gelen x86 mimarisini esas alıyor. Tahmin edebileceğiniz gibi x86 mimarisi sayesinde Intel'in yeni grafik işlemci mimarisine programcılar herhangi bir yeni bir proglama dili öğrenmek zorunda kalmadan kolayca adapte olabilecekler. x86 mimarisine ek olarak Larrabee DirectX ve OpenGL gibi grafik endüstrisinde standartlaşmış API'lere de destek verecek. Bakalım Intel cephesinden gelen yeni açıklamalar karşısında Nvidia'nın tutumu nasıl olacak bekleyip göreceğiz.

    Yorum Yaz Bu haberi, mobil uygulamamızı kullanarak indirip,
    istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
    DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
    Yorumlar (3) Yorum Yaz Forumda Gör
    ismail durmus (@tokatli6061) 12 yıl
    Gelsinger bu açıklamasını Sony'nin Cell mimarisini örnek göstererek destekledi. Gelsinger'e göre benzer şekilde günümüzde yaygın olarak kullanılan mimariye karşı ciddi performans sıçraması vaat eden Cell mimarisinin malesef programcılar tarafından yaygın şekilde desteklenmediğini sözlerine ekledi.




    adam "malesef" demiş programcılar destekleselerdi şu cell işlemcilerinide bizide işlemci üretme sıkıntısından kurtarsalardı ama malesef olmadı demek istedi sanırım. malesefmiş.....
    @DISTURBED 12 yıl
    acıların cocuğu nvidia garibim bi ati vuruyo bi intel
    @RCox 12 yıl
    Nvidia ya benzer şekilde ati de CAL'ı geliştiriyor. Sanırım intel amd-ati yi bu konuda tehlike olarak görmüyor ki devamlı nvidia ile uğraşıyor. Intel deki eleman farklı bir programlama dili olarak bahsetmiş ama CUDA C üzerinden çağırıp kullanabiliyor. Benim nette okuduğum kadarı ile normal işlemci için yazılmış bir programı GPU üzerinde çalışacak şekilde tekrar yazmak o kadar zor değil, işin zor kısmı GPU ile bahsedilen yüksek hızlara ulaşmak yani programı optimize etmek. Teknoloji nasıl gelişecek bakalım ama ben bu işin dipnot olarak kalacağını düşünmüyorum.

    Yorum Yaz Forumda Yanıtla
    B I U " İçerik Göm DH Video Twitter YouTube Instagram Vine Künye BSC Oyun IMDb - url img @
    Nasıl eklemek istersiniz?
    Sorgu:
    Alternatif Görünümler Geri Bildirim