Sıcak bir patates:Deepfake teknolojisi gelişmeye devam ettikçe, kötüye kullanım potansiyeli de artıyor. Mevcut araçlar hala kullanıcıların tavırları, sesi ve diğer ayrıntıları taklit etmesini gerektirse de, ses klonlama ve görüntü sentezindeki gelişmeler, gerçek zamanlı olarak dijital doppelgänger’lar yaratmayı daha da ikna edici hale getirebilir.
Son birkaç gündür Deep-Live-Cam adlı yeni bir yazılım paketi sosyal medyada dalgalar yaratıyor ve inanılmaz bir kolaylıkla gerçek zamanlı deepfake’ler yaratma becerisiyle dikkat çekiyor. Yazılım bir kişinin tek bir fotoğrafını çekiyor ve yüzünü canlı bir web kamerası akışına uygulayarak kişinin pozunu, aydınlatmasını ve web kamerasındaki ifadelerini izliyor. Sonuçlar kusursuz olmasa da, teknolojinin hızlı ilerlemesi yapay zeka ile başkalarını aldatmanın ne kadar kolaylaştığını vurguluyor.
Ars Technica, Deep-Live-Cam projesinin geçen yılın sonlarından beri geliştirilmekte olduğunu, ancak örnek videoların çevrimiçi olarak dolaşmaya başlamasının ardından son zamanlarda viral ilgi gördüğünü belirtiyor. Bu klipler, bireylerin Elon Musk ve George Clooney gibi önemli şahsiyetleri gerçek zamanlı olarak taklit ettiğini gösteriyor. Popülaritesindeki ani artış, açık kaynaklı projeyi kısa süreliğine GitHub’ın trend olan depoları listesinde zirveye taşıdı. Ücretsiz yazılım GitHub’dan edinilebiliyor ve bu da temel programlama anlayışına sahip herkesin erişimine açık hale getiriyor.
Bazı deneyler – neredeyse kusursuz çalışıyor ve tamamen gerçek zamanlı. Kurulumu 5 dakikamı aldı. pic.twitter.com/Ow0QRF7WOj
– joao (@jay_wooow) 9 Ağustos 2024
Deep-Live-Cam’in potansiyel kötüye kullanımı teknoloji gözlemcileri arasında endişeye yol açtı. İllüstratör Corey Brickley, en son çığır açan teknolojilerin çoğunun kötüye kullanılmaya hazır olduğu konusunda bir aydınlanma yaşadı.
// İlgili Hikayeler
- Apple, Nvidia ve diğerleri, yapay zekalarını kullanıcı izni veya bilgisi olmadan YouTube içeriklerine eğittiler
- Önerilen “Sahtecilik Yok” Yasası, kuruluşları deepfake’lerin neden olduğu zararlardan sorumlu tutacak
Brickley, “Teknoloji alanında son zamanlarda ortaya çıkan tüm büyük yeniliklerin Dolandırıcılık beceri ağacının altında olması ilginç,” diye tweet attı ve ekledi: “Herkesin ebeveynleri ile şifreli kelimeler oluşturmayı unutmaması güzel.”
Teknoloji alanında son zamanlarda ortaya çıkan tüm büyük yeniliklerin Dolandırıcılık beceri ağacının altında olması garip
– Corey Brickley İllüstrasyonu. Filistin İçin Adalet (@CoreyBrickley) 13 Ağustos 2024
Brickley’nin yorumu kasıtlı olarak alaycı olsa da, kötü aktörlerin bu tür araçları aldatma için kullanma potansiyelini vurguluyor. Deepfake teknolojilerinin yaygınlığı ve erişilebilirliği göz önüne alındığında, kimliğinizi ailenize ve arkadaşlarınıza doğrulamak için güvenli bir kelime belirlemek o kadar da çılgın bir fikir değil.
Yüz değiştirme teknolojisinin kendisi yeni değil. “Deepfake” terimi 2017’den beri var. Bunu bir takma ad olarak kullanan bir Reddit kullanıcısından kaynaklandı. Reddit kullanıcısı, bir porno sanatçısının yüzünü bir ünlünün yüzüyle değiştirdiği resimleri ve videoları sık sık yayınlıyordu. O zamanlar teknoloji yavaştı, pahalıydı ve gerçek zamanlı olmaktan uzaktı. Ancak, bu ilkel teknikler inanılmaz bir ölçüde gelişti. Deep-Live-Cam ve diğerleri gibi projeler daha akıllı ve daha hızlıdır ve giriş engelini düşürerek standart bir PC’ye sahip herkesin özgür yazılım kullanarak deepfake oluşturmasına olanak tanımıştır.
Suistimal potansiyeli artık iyice belgeleniyor.
Şubat ayında Çin’deki dolandırıcılar, CFO da dahil olmak üzere şirket yöneticilerini bir görüntü aramasında taklit ettiler ve bir çalışanı 25 milyon ABD dolarından fazla para transferi yapmaya kandırdılar. Çalışan, konferans görüşmesindeki tek gerçek kişiydi. Benzer bir durumda, ABD’de biri yakın zamanda Joe Biden’ın sesini kopyalayarak insanları New Hampshire ön seçimlerinde oy kullanmaktan caydırdı. Deep-Live-Cam gibi gerçek zamanlı deepfake yazılımlarının yükselişiyle, uzaktan görüntü dolandırıcılığı vakaları daha yaygın hale gelebilir ve yalnızca kamu figürlerini değil sıradan bireyleri de etkileyebilir.