Deepfake Tespitinde Çığır Açan Yöntem: Işığa Gizlenen Filigranlar
Yapay zekâ destekli video manipülasyonları, sahte içerikleri tespit etmeyi her zamankinden daha zor hale getiriyor. Deepfake teknolojileri, gerçeklik algısını ciddi şekilde tehdit ederken, araştırmacılar bu soruna karşı daha etkili çözümler geliştirmeye odaklanıyor. Cornell Üniversitesi’nden bir ekip, bu alanda dikkat çekici bir adım atarak manipülasyon tespitini kolaylaştıracak yeni bir yöntem duyurdu.
Haziran ayında ACM Transactions on Graphics dergisinde yayımlanan ve SIGGRAPH 2025‘te sunulan bu yöntem, video karelerindeki ışık kaynaklarına gizlenen özel filigranları temel alıyor. “Gürültü kodlu aydınlatma” olarak adlandırılan bu teknik, videoya yapılan her türlü müdahaleyi algılayarak içerik doğrulamada önemli bir araç sunuyor.
Işık Dalgalanmalarına Dayalı Filigranlama
Yeni yöntemde, videoda yer alan ışık kaynaklarının dalgalanmaları içerisine özel kodlar yerleştiriliyor. Bu kodlar, video değiştirilmediğinde tutarlı bir şekilde kalırken, manipülasyon yapıldığında bozuluyor ve değişikliklerin tespit edilmesini sağlıyor. Araştırma ekibine göre bu teknik, hem gerçek hem de yapay zeka ile üretilmiş sahte videoları ortaya çıkarmada etkili bir çözüm sunuyor.
Bilgi Asimetrisi ile Güçlendirilmiş Güvenlik
Cornell ekibinin yaklaşımında bilgi asimetrisi kavramı belirleyici bir unsur olarak yer alıyor. Bu, sadece içerik üreticisinin erişebileceği bilgilere dayalı bir doğrulama sistemi sunuyor. Geleneksel dijital filigranlama tekniklerinden farklı olarak, bu yaklaşım sahtecilik yapanların kodlara erişip taklit etmesini büyük ölçüde güçleştiriyor.

Kod Videolarla Manipülasyon Tespiti
Filigranlar, “kod video” adı verilen düşük çözünürlüklü ve zaman damgalı versiyonlar olarak işlev görüyor. Videoya yapılan en ufak bir müdahale bile kodlarla uyuşmayarak manipülasyonun hangi bölümlerde yapıldığını açıkça gösteriyor. Bu sayede hem içerik doğrulayıcılar hem de izleyiciler, sahte görüntüleri daha hızlı fark edebiliyor.
Geniş Kapsamlı Testlerde Başarılı Sonuçlar
Ekip, yöntemi hız değişiklikleri, montajlar, kamera hareketleri ve flaş ışığı gibi farklı manipülasyon senaryolarında test etti. Elde edilen sonuçlar, sistemin iç ve dış mekân çekimlerinde yüksek başarı sağladığını gösterdi. Ayrıca, farklı ten tonları ve ışık koşullarında da etkili olmaya devam ettiği belirtildi.
Geleceğin Güvenlik Teknolojisi Olabilir
Araştırmacılar, deepfake ve diğer video manipülasyon tekniklerinin gelecekte daha da ilerleyeceğini, bu yüzden tespit yöntemlerinin sürekli güncellenmesi gerektiğinin altını çiziyor. Cornell Üniversitesi’nin geliştirdiği bu ışık tabanlı filigranlama sistemi, dijital içerik güvenliğinde yeni bir standart oluşturabilecek potansiyele sahip görünüyor.







