Son Aramalarınız TEMİZLE
    Genel Hızlı Tercihler Sıfırla
    Header'ı Tuttur
    Header'da Teknoloji Gündemi
    Anasayfa
    Büyük Slayt ve Popüler Haberler
    Döşeme Stili Ana Akış
    Kaydırarak Daha Fazla İçerik Yükle
    İçerikleri Yeni Sekmede Aç
    Detay Sayfaları
    Kaydırarak Sonraki Habere Geçiş
    Renk Seçenekleri
    Gece Modu (Koyu Tema)
    Sadece Videolar için Gece Modu
    Haber Gir indirim kodu
    Anlık Bildirim

    MIT ve IBM, sahte görüntü oluşturan ve algılayan yapay zeka geliştirdi

    MIT ve IBM araştırmacıları, sıfırdan fotoğrafik görüntüler oluşturabilen ve sahte görüntüleri algılayabilen yeni bir yapay zeka modeli geliştirdiklerini açıkladılar. İşte konunun detayları.
    Oy Ver
    Eskiden sahte veya montaj görüntüleri tespit etmek, o zamanki teknolojiden ötürü pek zor değildi. Ancak günümüzde DeepFake tekniğinin de gelişmesiyle birlikte bu durum biraz zorlaştı ve endişe verici bir hale geldi. Tam da bu noktada MIT ve IBM araştırmacıları yeni bir yapay zeka modeli geliştirdiler.

    Ücretsiz deneme sürümü mevcut

    Araştırmacıların geliştirdikleri bu yapay zeka modeli, sahte görüntüleri tespit etme konusunda oldukça başarılı. Ayrıca bu teknolojiyi kullanarak sıfırdan, hiç olmayan bir görüntüyü de kaba taslak çizimlerle elde etmek mümkün oluyor. Nesneler arasındaki ilişkiyi çok iyi bilen bu yapay zeka modeli, sahte görüntüleri de bu yöntemle tespit ediyor.

    GANpaint Studio olarak adlandırılan bu yapay zeka destekli aracın, denemek isteyen kullanıcılar için ücretsiz bir demo sürümü mevcut. Buraya tıklayarak sisteminize indirip deneme şansına sahipsiniz. Bunun yanında Adobe gibi şirketler de sahte görüntüleri tespit etmek için araçlar geliştirirken, Google ise çocuklara internetteki sahte içeriği nasıl tespit edecekleri konusunda kurslar başlatıyor.

    Bu haberi, mobil uygulamamızı kullanarak indirip,
    istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
    DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
    Sorgu:
    Önceki ve Sonraki İçerikler
    Daha Yeniler Daha Eskiler
    Yeni Haber
    şimdi
    Geri Bildirim