Mona Lisa'nın "konuşturulduğu" yapa zeka temelli "Deepfake" teknolojisinin, sinema sektöründe işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
AA muhabirinin derlediği bilgilere göre, son günlerde adı sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.
Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.
Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine olanak sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.
"ALGI YÖNETİMİ AMACIYLA KULLANILABİLİR"
Aktepe, bazı ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, "ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır." ifadelerini kullandı.
İnsanların hayatını kolaylaştırmak, iş süreçlerinin iyileştirmek amacıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne gibi zararlar verebileceğine “Deepfake” teknolojisinin iyi bir örnek olduğunu savunan Aktepe, "Söz konusu teknik, görüntü işleme ve sinema sektörüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından kötü amaçlar için, yani etik dışı olarak yaygın bir şekilde kullanılmaktadır." değerlendirmesinde bulundu.
Aktepe, kişilere özgün görüntü ve ses işleyebilme özelliği sayesinde söz konusu teknolojinin sinema ve televizyon sektöründe maliyet etkin olarak kullanılmaya başlandığına ancak etik dışı kullanıma yönelik bazı riskleri de barındırdığına da dikkati çekti.
"Deepfake"in siber zorbalık amacıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber saldırılarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, "Söz konusu teknolojinin toplumlarda algı yönetimi ile kaos yaratılması ve toplumsal olayların tetiklenmesi amacıyla da kullanılabileceğini değerlendiriyoruz." ifadelerini kullandı.
"HAYATA DÖNDÜRÜLEN" ÜNLÜLER
"Deepfake" teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube'da yayınlamıştı.
(AA)