Tespit Edilemeyen Deepfakes ile Nasıl Başa Çıkılır?

Bir ızgara deseninde gösterilen, prosedürel olarak oluşturulmuş bir dizi yüz.
meyer_solutions/Shutterstock.com

Deepfakes, insanların sesini ve görünümünü kopyalamayı mümkün kılar. Deepfake yaratıcısı, bu kopyanın neredeyse her şeyi söylemesini veya yapmasını sağlayabilir. Daha da kötüsü, derin sahtekarlığı tanımlamak neredeyse imkansız hale geliyor. Bununla nasıl başa çıkabilirsin?

Özetle Deepfakes

Deepfake’ler, yapay sinir ağlarını kullanan belirli bir makine öğrenme yöntemi türü olan derin öğrenme teknolojisinin adını almıştır. Derin öğrenme, “makine vizyonunun” nasıl çalıştığının önemli bir parçasıdır. Bu, bilgisayar sistemlerinin, örneğin nesneleri tanımasını sağlayan yapay zeka alanıdır. Yapay görme teknolojisi, sürücüsüz arabalardan Snapchat filtrelerine kadar her şeyi mümkün kılar.

Deepfake, bir videoda bir kişinin yüzünü bir başkasıyla değiştirmek için bu teknolojiyi kullandığınız zamandır. Deepfake teknolojisi artık seslere de uygulanabiliyor, böylece bir videodaki bir oyuncunun hem yüzü hem de sesi başka biriyle değiştirilebilir.

Deepfake’leri Tespit Etmek Kolaydı

Bir müzede Michelle ve Barack Obama'nın balmumu kopyaları.
NikomMaelao Production/Shutterstock.com

İlk günlerde, bir derin sahtekarlığı tespit etmek önemsizdi. Ünlü bir balmumu figürüne benzer şekilde, birine bakan herkes onda bir terslik olduğunu hissedebilirdi. Zaman geçtikçe, makine öğrenimi algoritmaları yavaş yavaş gelişti.

Bugün, yüksek kaliteli derin sahtekarlıklar, ortalama izleyicilerin söyleyemeyeceği kadar iyidir, özellikle de videolar sosyal medya video paylaşımının düşük kaliteli doğası tarafından bir şekilde maskelendiğinde. Uzmanlar bile göz ile gerçek çekimler dışında en iyi derin sahteleri söylemekte zorlanabilirler. Bu, onları tespit etmek için yeni araçların geliştirilmesi gerektiği anlamına gelir.

Deepfake’leri Tespit Etmek İçin Yapay Zekayı Kullanma

Ateşle ateşle savaşmanın gerçek dünyadaki bir örneğinde, araştırmacılar, insanlar yapamadığında bile derin sahte videoyu tespit edebilen kendi AI yazılımlarını geliştirdiler. MIT’deki akıllı insanlar, bu videoların nasıl tespit edilebileceğini göstermek için Sahte Tespit projesini oluşturdu.

Yani bu derin sahte videoları artık gözünüzle yakalayamasanız da, bu işi yapabilecek yazılım araçlarının olduğu gerçeğinde biraz içimiz rahat olabilir. İndirmek için derin sahte tespit ettiğini iddia eden uygulamalar zaten var. Deepware bir örnektir ve daha fazla derin sahte algılama ihtiyacı arttıkça, çok daha fazlasının olacağından eminiz.

Peki, sorun çözüldü mü? Pek değil! Deepfake oluşturma teknolojisi şimdi onu tespit etme teknolojisiyle rekabet halinde. Deepfake’lerin o kadar iyi hale geldiği bir nokta gelebilir ki, en iyi AI algılama algoritması bile bir videonun sahte olup olmadığından pek emin olmayacaktır. Henüz orada değiliz, ancak yalnızca internette gezinen ortalama bir kişi için, belki de bir sorun olması için o derin sahte ilerleme noktasında olmamıza gerek yok.

Deepfakes Dünyasıyla Nasıl Başa Çıkılır?

O halde, örneğin bir ilçe başkanıyla ilgili gördüğünüz bir videonun gerçek olup olmadığını güvenilir bir şekilde söyleyemezseniz, aldanmayacağınızdan nasıl emin olabilirsiniz?

İşin aslı, tek bir bilgi kaynağını tek kaynağınız olarak kullanmak hiçbir zaman iyi bir fikir olmamıştır. Önemli bir şeyle ilgiliyse, aynı bilgiyi bildiren birden fazla bağımsız kaynağı kontrol etmelisiniz, ancak potansiyel olarak sahte materyalden değil.

Deepfake’lerin varlığı olmasa bile, internetteki kullanıcıların hükümet politikası, sağlık veya dünya olayları gibi konu alanlarıyla ilgili önemli bilgi türlerini durdurması ve doğrulaması zaten çok önemlidir. Her şeyi doğrulamak açıkçası imkansız, ancak önemli şeyler söz konusu olduğunda çaba sarf etmeye değer.

Gerçek olduğundan neredeyse %100 emin olmadığınız bir videoyu başkalarına aktarmamak özellikle önemlidir. Deepfake’ler yalnızca bir sorun çünkü eleştirmeden paylaşılıyorlar. Bu virallik zincirinin bir parçasını kıran siz olabilirsiniz. Daha az çaba gerektirir olumsuzluk Sonuçta, sahte olma olasılığı bulunan bir videoyu paylaşmaktansa birlikte göndermek.

Ek olarak, bir videodan şüphelenmek için derin sahtekarlık tespit eden bir yapay zekanın gücüne ihtiyacınız yok. Bir video ne kadar çirkinse, sahte olma olasılığı o kadar yüksektir. Bir NASA bilim adamının aya inişin sahte olduğunu veya patronunun bir kertenkele olduğunu söyleyen bir videosunu görürseniz, hemen bir kırmızı bayrak kaldırmalıdır.

Kimseye güvenme?

Bir dizüstü bilgisayar ve bir teneke folyo şapka ile bir masada oturan genç adam.
Patrick Daxenbichler/Shutterstock.com

Bir videoda gördüğünüz veya duyduğunuz her şeyin muhtemelen sahte olduğunu ve sizi bir şekilde kandırmayı veya manipüle etmeyi amaçladığını tamamen paranoyak olmak korkutucu bir düşüncedir. Ayrıca muhtemelen sağlıklı bir yaşam tarzı değil! Kendinizi böyle bir ruh haline sokmanız gerektiğini söylemiyoruz, bunun yerine görüntülü veya sesli kanıtların ne kadar güvenilir olduğunu yeniden düşünmeniz gerektiğini söylüyoruz.

Deepfake teknolojisi, medyayı doğrulamak için yeni yollara ihtiyacımız olduğu anlamına geliyor. Örneğin, herhangi bir değişikliğin gizlenmemesi için videolara filigran eklemenin yeni yolları üzerinde çalışan insanlar var. Sıradan normal bir internet kullanıcısı olarak size gelince, yapabileceğiniz en iyi şey şüpheciliğin yanında hata yapmaktır. Bir videonun, konuyla doğrudan röportaj yapan bir muhabir gibi birincil bir kaynak tarafından doğrulanana kadar tamamen değiştirilebileceğini varsayın.

Belki de en önemli şey, deepfake teknolojisinin bugün ne kadar iyi olduğunun veya yakın gelecekte ne kadar iyi olacağının farkında olmanızdır. Ki, bu makalenin sonuna gelmiş olduğunuza göre, kesinlikle öylesiniz.

LEAVE A REPLY

Please enter your comment!
Please enter your name here