Işık patlamasıyla deepfake avı: Cornell’in görünmez savunması

Işık desenleriyle gizlenen filigranlar, deepfake videoları yakalamada oyunun kurallarını değiştiriyor.

Işık patlamasıyla deepfake avı: Cornell’in görünmez savunması

Cornell Üniversitesi araştırmacıları, deepfake videoların tespitinde kullanılacak “gürültü kodlu aydınlatma” adlı bir sistem geliştirdi. Bu yöntem, rastgele parazit gibi görünen ışık dalgalanmalarının içine gizli filigranlar yerleştiriyor. Filigranlar, orijinal sahnenin zaman damgalı bir versiyonunu saklıyor ve herhangi bir müdahalede uyuşmazlıklar ortaya çıkıyor. Böylece yapay zekâ tarafından üretilmiş ya da manipüle edilmiş videolar güvenilir şekilde ayırt edilebiliyor. Üstelik sistem, düşük ışık, sıkıştırma ya da kamera hareketi gibi koşullarda dahi etkinliğini koruyor. Bu da teknolojiyi hem güvenilir hem de pratik kılıyor.

Sahtecilerin işi artık çok daha zor

Deepfake üretenler için bu sistem büyük bir engel oluşturuyor. Çünkü sahte videonun yalnızca görsel açıdan değil, aynı zamanda gömülü ışık kodlarıyla da uyumlu olması gerekiyor. Bu kodların birebir taklit edilmesi neredeyse imkânsız bir işlem. Araştırmacılar yöntemi farklı manipülasyon teknikleri üzerinde test etti ve sistemin insan gözünün algılayamayacağı seviyelerde bile değişiklikleri ortaya çıkardığını kanıtladı. Böylece video sahteciliği tespitinde yeni bir güvenlik standardı oluştu. Teknoloji, deepfake tehdidine karşı daha güçlü bir savunma hattı sunuyor ve sahte içeriklerin yayılmasını zorlaştırıyor.

Tekniğin en çarpıcı yanı, günlük kullanım için uyarlanabilir olması. Standart lambalara küçük bir çip eklenerek ya da ekranlara yazılım yüklenerek kolayca çalışabiliyor. Bu da hem bireylerin hem kurumların video içeriklerini koruyabileceği anlamına geliyor. Hassas yayınların güvenliği, kişisel videoların gizliliği ve kimlik hırsızlığının önlenmesi gibi alanlarda sistem büyük bir potansiyel taşıyor. Böylece yalnızca devlet kurumları değil, sıradan kullanıcılar da bu teknolojiden faydalanabilecek. Kolay entegrasyonu sayesinde ileride güvenlik paketlerinin standart bir parçası haline gelebilir.

Deepfake çağında yeni bir savunma

Geliştirilen teknoloji, dijital çağın en büyük sorunlarından biri olan sahte videolarla mücadelede önemli bir adım olarak görülüyor. Bugün video içeriğinin doğruluğunu sorgusuz kabul etmek artık mümkün değil. Mevcut kontrol yöntemleri, kasıtlı sahtecilikle basit sıkıştırma arasındaki farkı ayırt etmekte yetersiz kalıyor. Cornell ekibinin çözümü ise pratik ve geniş ölçekte uygulanabilir olmasıyla öne çıkıyor. Araştırmacılar, manipülasyon araçlarının gelişmeye devam edeceğini kabul etse de, bu yöntemin deepfake tehdidine karşı güçlü bir kalkan olacağı görüşünde. Önümüzdeki yıllarda, ışık tabanlı kimlik doğrulama teknikleri, medya güvenliğinin vazgeçilmez unsurlarından biri haline gelebilir.

Paylaş:
Merih KARAAĞAÇ
Merih KARAAĞAÇ

Merih, 5 yıldır teknoloji alanında editörlük yapıyor. Bilim, yapay zeka, donanim ve mobil teknolojiler konusundaki yazıları düzenliyor. Bilim ve yapay zeka konularında uzmanlaşmış.

Yorum bırakın

E-posta adresiniz yayınlanmayacaktır. Zorunlu alanlar * ile işaretlenmiştir.