OpenAI'ın kısa sürede beş milyona yakın kullanıcıya ulaşan video üretme aracı Sora, sahte videolar yaratmak için en çok kullanılan araçlar arasında yer alıyor. OpenAI, bu videoların dezenfermasyon amaçlı kullanılmasını engellemek için üretilen videoların üzerine Sora filigranı ekliyor olsa da bu filigran daha sonra kolaylıkla kaldırılabiliyor. Hatta basit bir Google aramasıyla, doğrudan amaç için oluşturulmuş birkaç uygulamaya ya da internet sitesine rahatlıkla ulaşabiliyorsunuz. Bu yüzden özellikle kötü amaçlı kişilerin elinde bu tarz yapay zeka araçları tehlikeli birer dezenformasyon silahına dönüşüyor.
Diğer yandan sosyal medya kullanıcılarının yapay zeka ile oluşturulmuş ya da üzerinde oynanmış videoları, gerçek videolardan ayırt etme konusunda pek yetkin olmaması da endişe yaratıyor. New York Times, kısa süre önce ABD'de hızla yayılan ve politik bir tartışmanın fitilini ateşleyen bir videoya dikkat çekerek, dikkatli bakıldığında AI ile yapıldığı açıkça belli olan bu tarz bir videonun bile sosyal medyada çok sayıda kişiyi kandırabildiğine dikkat çekiyor. Yani sosyal medyada yalan yanlış bilgiler yaymak için öyle çok gelişmiş videolar yapmak bile gerekmiyor.
Bu durum ciddi endişeleri beraberinde getiriyor. Çünkü bu tarz sahte videolar politik konulardan bilimsel gerçeklere kadar pek çok konuda yanlış bilgiler üzerinden algı oluşmasına vesile olabiliyor. Berkeley Üniversitesi’nden bilgisayar bilimi profesörü Hany Farid, “Tüketiciler her gün sayısını bilmediğimiz kadar çok sahte içerikle karşılaşıyor. Bu durum yalnızca demokrasimiz için değil, ekonomimiz ve kurumlarımız için de kaygı verici.” diyerek tam da buna vurgu yapıyor.
Giderek artan bu kirlilik doğru bilgilerin de inanırlığını zedeliyor. Yapay zeka videolarının hızla yayılması, insanların sosyal medyada gördükleri haberlere inancını yitirmesine sebep oluyor. Pew Research’ün verilerine göre Amerikalıların yarısından fazlası artık insan yapımı içerikle yapay zeka ürünü videoları ayırt edebildiğinden emin değil.
Sosyal Medya Şirketleri, Sahte Video Selini Kontrol Altına Almakta Zorlanıyor
Meta, TikTok, YouTube ve X gibi sosyal medya platformları, kullanıcıların yapay zeka ile oluşturulmuş içerikleri açıkça belirtmesini zorunlu kılan kurallar uyguluyor. Ancak uzmanlara göre bu politikalar, yeni nesil içerik üretim araçlarının hızına yetişmekte tamamen yetersiz kalıyor. İnsan hakları örgütü WITNESS’ın genel direktörü Sam Gregory, asıl sorumluluğun şirketlerde olduğunun altını çiziyor: “Dezenformasyon konusunda içerik denetimlerini daha iyi hale getirebilirler mi? Kesinlikle. Yapay zeka ile üretilmiş içerikleri otomatik olarak tespit etme ve işaretleme konusunda daha proaktif olabilirler mi? Bunun cevabı da evet.”
Sosyal medyada geniş yankı uyandıran sahte videoların uzun süre dolaşımda kalması, Facebook ve X gibi şirketlerin dezenformasyonu önlemek için yeterli önlemleri almadığının ispatı olarak görülüyor. Yapay zeka ile hazırlanmış sahte haber videoları ve uydurma sokak röportajları gibi dezenformasyon amaçlı videolar, viral oldukları hâlde uzun süre dolaşımda kalmaya devam edebiliyor. Hatta zaman zaman bu videolar haber kuruluşları tarafından bile gerçek sanılıp paylaşılabiliyor.
Sahte Videolar, Devletler Tarafından Dış Müdahaleler İçin de Kullanılabilir
Sosyal medyadaki bu dezenformasyon krizi, sadece kötü amaçlı kişilerin üretimleriyle sınırlı değil. Bunun yanı sıra devletlerin de başka ülkelerde karışıklık yaratmak ya da belli bir yönde algı oluşturmak için bu tarz sahte videoları adeta silahlandırabileceğine dikkat çekiliyor. Nitekim gerek İsrail-İran krizinde, gerekse Rusya-Ukrayna savaşında bu tarz sahte videoların dezenformasyon amacıyla sosyal medyada yayıldığına şahit olduk. Bu tarz devlet destekli ve koordine edilmiş manipülasyonlar, ülkelerin ulusal güvenlikleri açısından ciddi sorunlar yaratabilir. İşin bu tarafını da göz önüne aldığımızda, sadece Facebook ya da X gibi şirketlerin değil, devletlerin de bu konuda önlemler alması gerektiği açıkça görülüyor.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}