Anlık Bildirim

Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!

Teknolojik gelişmelerin her zaman istenmeyen bir yüzü olmuştur. Günümüzde bunu, yapay zekâ ile üretilen gerçekçi seslerin dolandırıcılıkta kullanılmasında görüyoruz.
Dolandırıcılar yapay zekâ ile üretilen sesleri kullanmaya başladı Tam Boyutta Gör
Yapay zekâ diğer birçok teknolojik devrimlerde olduğu gibi faydalarıyla birlikte zararlarını da hayatımıza sokacak. Görünüşe göre şimdilik buna hazırlıklı değil. Son gelen bilgiler yapay zekâ ile üretilen gerçekçi ses taklitlerinin dolandırıcılıkta kullanılmaya başlandığını bildiriyor.

Washington Post’un aktardığına göre birkaç çift, kendilerini çeşitli nedenlerle yardım dolayısıyla arayan çocuklarına para gönderdi, her duyarlı ailenin yapacağı gibi. Ancak farkında olmadıkları bir sorun vardı; Konuştukları kişi çocukları değil, bir yapay zekaydı.

Yapay zeka tarafından oluşturulmuş ses ile dolandırıcılık

Dolandırıcılar yapay zekâ ile üretilen sesleri kullanmaya başladı Tam Boyutta Gör
Elbette ses tabanlı dolandırıcılık yeni bir şey değil. ABD Federal Ticaret Komisyonu verileri, geçen yıl insanların arkadaş veya aile gibi davranan suçlular tarafından dolandırıldığına dair 36.000 raporun 5.100'den fazlasının telefonda gerçekleştiğini ortaya koyuyor. Bir kişinin sesini taklit etmek önceden saatlerce süren ses keşifleri ile mümkün oluyordu. Ortaya çıkan ürünlerin kusurları ise dikkatli kişiler tarafından fark edilebiliyordu. Ancak şimdi yapay zeka ile oluşturulmuş ses taklitleri için sadece birkaç dakika yeterli. Aktarılanlara göre bir çift, çocuklarının sesini taklit eden dolandırıcılara 15.449 dolar gönderdi ve tek kurban kendileri değil.

Örneğin Microsoft'un Vall-E aracı sadece 3 saniyelik ses klipleri ile oldukça gerçekçi ve tutarlı ses taklitlerini mümkün kılıyor. Üstelik bu küçük ses klipinden farklı tonları (sinirli, heyecanlı vb.) bile üretebiliyor. Benzer bir araç olan ElevenLabs ise çok daha gerçekçi sesler üretebiliyor. Hemen üstteki Twitter videosundan aracın başarısını görebilirsiniz.

Gelinen noktada bu tip dolandırıcılar veya kötü kullanım için kapsamlı önlemlerin alınması şart gibi duruyor. Sadece dolandırıcılık olarak da görmemek gerek. Bu tip üretilmiş seslerle birleştirilmiş deepfake videolar özellikle karmaşanın olduğu anlarda ciddi sonuçlara neden olabilir. Bankaların ses tabanlı güvenlik özellikleri aşılabilir. Dolayısıyla sosyal medya platformları kendilerine yüklenen videolarda veya görsellerde yapay zekayı tespit eden araçlara yer verebilir. Halihazırda ChatGPT gibi metin üreten yapay zekâları tespit eden DetectGPT gibi modeller geliştiriliyor.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim