OpenAI’nin yeni video üretim modeli Sora 2, yanlış veya yanıltıcı içerik üretme kapasitesi nedeniyle ciddi tartışmalara yol açtı. Haber doğrulama kuruluşu NewsGuard, yaptığı testlerde Sora 2’nin denenen 20 yanlış iddianın 16’sını (%80) gerçekmiş gibi gösteren videolara dönüştürdüğünü açıkladı.
Dakikalar İçinde Sahte Videolar
Araştırmacılar, Sora 2’yi kullanarak kısa sürede sahte ama inandırıcı videolar üretebildi:
-
Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı
-
ABD sınırında bir çocuğun gözaltına alındığı
-
Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği
NewsGuard, bu örneklerin yapay zekânın endüstriyel ölçekte dezenformasyon için ne kadar kolay kullanılabileceğini gösterdiğini vurguladı.
OpenAI’nin Önlemleri
OpenAI, Sora 2’nin güvenlik risklerini resmî olarak kabul ediyor:
-
Modelin izinsiz benzerlik kullanımı veya yanıltıcı içerikler üretebileceği belirtiliyor
-
Erişim sınırlı davetle sağlanıyor
-
Foto-gerçekçi kişi içeren görsel veya videoların yüklenmesi yasak
-
Minörleri içeren içerikler için sıkı denetim uygulanıyor
-
Güvenlik önlemleri kademeli olarak geliştirilecek
OpenAI, modelin önceki sürümlere göre fiziksel gerçekçiliği, senkronize ses üretimi, yönlendirilebilirliği ve görsel çeşitliliği artırdığını belirtiyor.
Uzmanlar Endişeli
-
Doç. Michelle Amazeen (Boston Üniversitesi): “Bu sahte videolar, gerçek ve yalanı ayırt etmeyi daha da zorlaştırıyor.”
-
Scott Ellis (Daon): “Sora, fiilen bir deepfake aracı ve zararlı içeriklerde %80 başarısız.”
-
Arif Mamedov (Regula Forensics CEO): “Artık bu, endüstriyel çapta dezenformasyon çağıdır.”
Filigranlar Kolayca Kaldırılabiliyor
OpenAI, tüm videolara görünür filigran ve C2PA dijital imza eklediğini açıklasa da, NewsGuard filigranın ücretsiz bir araçla 4 dakika içinde silinebileceğini gösterdi. Dijital medya uzmanı Jason Crawforth, bu yöntemlerin sadece “kısa vadeli caydırıcı” olduğunu belirtti.
Çözüm Önerileri
Güvenlik uzmanları, içerik doğrulama için blok zinciri tabanlı kimlik sistemleri öneriyor. Bu yöntem, içeriklerin kaynağını ve sahipliğini değiştirilemeyecek şekilde kayıt altına alarak manipülasyonu zorlaştırıyor.
Sora 2’nin yüksek kaliteli sahte videoları dakikalar içinde üretebilmesi, dijital çağda gerçeklik algısının giderek aşındığı yeni bir dönemin habercisi olarak değerlendiriliyor.
