
10 saniyelik videoların oluşturulduğu platformda, yalnızca kullanıcıların kendi görüntüleri değil, başkalarının görüntüleri ve sesleri de yer alıyor. OpenAI bu sanal görünümleri “cameo” olarak adlandırıyor ancak eleştirmenler bunun internet üzerinde potansiyel bir yanlış bilgi felaketine yol açabileceğini belirtiyor.
AI ikiziniz için daha söz hakkı
OpenAI’ın Sora ekibinden sorumlu Bill Peebles, yeni kontroller sayesinde kullanıcıların AI ikizlerinin uygulamada nasıl kullanılabileceğini sınırlandırabileceğini açıkladı. Örneğin, kullanıcılar AI versiyonlarının politik içerikli videolarda görünmesini engelleyebilecek, belirli kelimeleri söylemesini yasaklayabilecek veya kişisel tercihlerine göre sınırlamalar koyabilecek. Bu arada OpenAI çalışanı Thomas Dimson, kullanıcıların sanal ikizlerine kişisel dokunuşlar ekleyebileceğini de belirtti.
Şirketin getirdiği önlemler olumlu olsa da kesinlikle aşılamaz yapıda değiller. Benzer önlemlerin aşıldığını AI dünyasında çokça gördük. Bu arada Sora’nın mevcut güvenlik önlemlerinden biri olan filigranın da kullanıcılar tarafından aşıldığını belirtelim. Peebles, şirketin filigran sistemini geliştirmek için çalışmalar yürüttüğünü söylüyor.
Başlangıçta sunulan cameo kontrolleri, yalnızca “onaylı kişiler”, “arkadaşlar” veya “herkes” gibi genel seçeneklerle sınırlıydı ve bu durum platformda ciddi sorunlara yol açtı. Örnek olarak, OpenAI CEO’su Sam Altman’ın görüntüleri, izinsiz şekilde komik veya absürt videolarda kullanıldı; kendisi hırsızlık yaparken, rap yaparken veya ölü bir Pikachu’yu ızgarada pişirirken gösterildi.
Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin:


beşli çete yapsa rüzgardan yıkılır...
ağaçlar akıllandı savunmaya geçti derler ama mal sahibi herşey bir düzen üzerinedir düzeni bozmayın der anlayana...