Teknolojinin Son Tehdidi 'Deepfake': Sahte Porno Video Üretmek Kolaylaştı ve 'Sonuçları Ciddi Olacak'

 > -

Son haftalarda internete yüklenen ve 'deepfake' olarak adlandırılan sahte pornolarda bir patlama yaşanıyor. Bu tür videolarda, yalnızca fotoğraflarına sahip olunan bir kişinin yüzü, bir porno videosundaki aktrisin yüzüne monte ediliyor. Bu tür videolar ahlaki sınırları aşmanın yanı sıra gördüklerimize inanma hissimizi de etkiliyor. Sahte video teknolojisi bu sığ kullanımın dışında ciddi sonuçlara yol açabilir...

BBC Türkçe'de yer alan habere göre, kurumlar ve şirketler bu gelişmeye hazırlıksız yakalandı. 'Deepfake' videoların yayınlandığı internet siteleri gelişmeleri yakından takip ettiklerini söyleseler de bu konuda ne yapabilecekleri hakkında bir fikirleri yok.

Şarkıcı Ariana Grande'nin fotoğraflarının yüklendiği yazılım, onun yüzünü bir porno videosundaki aktrisin yüzüyle değiştirmiş

Bu topluluklarda yaptıkları şeyin gerçek etkileri tartışılırken vicdanın izine rastlamak çok zor.

Nasıl yaratılıyorlar?

Bu tür videoları yaratmayı sağlayan ve bir ay önce yayınlanan yazılımlardan biri, programı yaratan kişiye göre bir ay içinde 100 binden fazla indirildi.

En popüler sahte pornolarda ünlüler yer alsa da yeterince fotoğrafı bulunan herkesin deepfake videosu yapılabilir.

Teknoloji sitesi Motherboard tarafından yayınlanan bir makalede bu teknolojinin bir yıl içinde yayılacak kadar gelişeceği öngörülmüştü. Fakat o noktaya gelmesi yalnızca bir ay sürdü.

Gerçekçi videoların Hollywood stüdyolarında kullanılan türden yazılımlara, yeteneğe ve büyük bir bütçeye ihtiyacı oluyordu. Fakat bu süreç üç basit adıma indirgendi...

BBC muhabiri Dave Lee bu 3 süreci şöyle aktarıyor: "Bir kişinin çok fazla fotoğrafını edin, pornografik videoyu seç ve bekle. Kısa bir video için 40 saat gibi bir süre gerekse de bilgisayarlar gerisini hallediyor."

Habere göre son dönemde Güney Kore'de 'deepfake' terimini kullanarak yapılan aramalarda bir patlama yaşandı.

Bunun arkasında muhtemelen 23 yaşındaki pop yıldızı Seolhyun'un bu şekilde üretilen videoları yatıyor.

'Deepfake' videoları hazırlayanlar özellikle ünlüleri hedef alıyor.

'Deepfake' videolar hazırlayan topluluklar arasında Emma Watson ve Natalie Portman en popüler iki ünlü.

Reddit henüz bir adım atmadı ancak Gfycat görüntüleri sildi.

Resim barındırma sitesi Gfycat, 'deepfake' olarak tanımladığı görüntüleri sildi. Fakat yakın gelecekte bu çok daha zor bir görev haline gelecek. 

'Deepfake' topluluğunun kullandığı Reddit sitesi ise henüz bir adım atmadı. Fakat BBC'nin edindiği bilgilere göre site yönetimi gelişmeleri yakından takip ediyor. 

Google geçmişte bazı materyallerin daha zor çıkması için arama sonuçlarında değişikliklere gitmişti. Fakat aynısını 'deepfake' için de yapıp yapmayacakları henüz netleşmiş değil.

Reddit sitesinde bir kullanıcının söylediği gibi, bu distopik bilim kurgu dizisi Black Mirror'dan fırlamış bir uygulamaya benziyor.

Pek çoğumuz gibi şirketler de bu tür görüntülerin var olduğunu yeni yeni fark ediyor. Son yıllarda bu siteler daha çok, insanları utandırmak için başkaları tarafından ve rızaları olmadan yayınlanan "intikam pornosu" içerikleriyle mücadele etmekle uğraşıyordu. 'Deepfake' videolar ise insanları utandırmak için yapılabileceklere yeni bir seviye ekliyor. Bir video gerçek olmasa bile yol açacağı psikolojik hasarlar gerçek oluyor.

BU İÇERİĞE EMOJİYLE TEPKİ VER!
Helal olsun!
Hoş değil!
Yerim!
Çok acı...
Yok artık!
Çok iyi!
Kızgın!
YORUMLAR İÇİN TIKLAYINIZ

Başlıklar

BilimGoogleKoreporno
Görüş Bildir