Geçtiğimiz günlerde bir üniversite öğrencisinin hayatı kendisini tehdit eden tanımadığı bir vatandaş tarafından kabusa döndü. Takıntılı kişi genç kızın fotoğraflarını ‘Deepfake’ yoluyla çeşitli fotoğraf ve görüntülerde kullanarak çeşitli mevt tehditlerinde bulundu.
Genç kız toplumsal medyadan yardım talebini duyururken ‘Deepfake’ teknolojisinin berbata kullanımının ne kadar dehşetli olacağı da akıllara geldi.
DEEPFAKE’Lİ BİRİNCİ SÜREÇ DEĞİL
2019 yılında Almanya’da yapay zeka tabanlı yazılımla dolandırıcılık işlenmiş datalara nazaran ‘Deepfake’ ses taklidi ile gerçekleştirilen kabahatlerde yüzde 50 artış olduğu kaydedilmişti.
2021’de ise Birleşik Arap Emirlikleri’nde tekrar tıpkı sistemle ses taklidi yapılarak bir bankadan 325 milyon liralık transfere onay verildi.
‘Deepfake korkmamız gereken bir teknoloji mi? Olumsuz durumlarla karşılaşıldığında kullanıcılar neler yapabilir?’ sorularının karşılığını uzmanlar Hurriyet.com.tr için açıkladı.
‘YENİ SİBER HATALARIN KAPILARINI ARALADI’
ESET Türkiye Eser ve Pazarlama Müdürü Can Erginkurban yaptığı açıklamada, “Deepfake, gerçek bir insanın görünümünü ve sesini kopyalamak için sıfırdan ya da mevcut bir görüntü kullanılarak tasarlanan, uydurma içerik oluşturma gayeli, yapay zekaya dayalı insan imgesi sentezleme tekniği. Bu üzere görüntülerin gerçekçiliği inanılmaz seviyede olabiliyor. Deepfake, daha kolay ve daha süratli yaratabilen bir teknoloji haline geldi. Yeni bir çeşit siber hatanın da kapılarını araladı. Birçok kişi tarafından nispeten zararsız ve hatta eğlenceli olarak görülse de bu çılgınlık ziyanlı bir hal alarak siber hataların içinde yer almaya başladı. Sadece tanınmış şahısları değil rastgele birini içeren uydurma görüntüler üretilmeye başlandı” dedi.
ÜRPERTEN ARAŞTIRMA
Erginkurban araştırmaların boyutlarını da ortaya sererken, “Uygulamaların giyinik haldeki bir insanı saniyeler içerisinde üstsüz hale getiren DeepNude uygulamalarına da şahit olundu. Bu uygulama neyse ki artık çevrimdışı hale getirildi. Bilhassa yetişkin sinemaları dalında, bu görüntülerin üretiminin kârlı bir iş haline geldiğine dair deliller da mevcut. BBC, “Bu görüntülerin yüzde 96’sı, benzerleri gerek bilgileri dahilinde gerek müsaadeleri olmadan cinsel içerikli görüntülerde oynatılan bayan ünlülere ait” açıklamasında bulundu” sözünde bulundu.
ABD’DE CEZASI VAR
Erginkurban ABD’de de işin yasal bir noktaya taşındığını da belirterek, “Bir müddet evvel California’da yürürlüğe giren bir yasa ile yasa koyucular gözlerini kararttı ve kişinin müsaadesi olmadan çıplaklık içeren deepfake imajlarını yaratmayı, cezası 150.000 Amerikan dolarına varan yasa dışı bir hareket haline getirdi. Lakin, birtakım insanların görüntü üretmelerini önlemeye yasalar yetmiyor” dedi.
TEHDİTLERE KARŞI YAPILMASI GEREKENLER
Erginkurban kelamlarına şöyle devam etti: “İlk olarak, insanlara deepfake içeriklerin var olduklarını göstermeli, onlara bu içeriklerin nasıl çalıştıkları ve hangi hasarlara yol açabilecekleri konusunda eğitmeliyiz. Hepimizin gördüğümüz en gerçekçi görüntülere bile büsbütün uydurma olabilirmiş üzere davranmayı öğrenmemiz gerekiyor. İkinci olarak, deepfake içerikleri daha âlâ algılayacak teknolojiler geliştirilmesi gerekiyor. Makine tahsilinin şahsen bunları yaratma sürecinin tam merkezinde yer almasına rağmen, yalnızca insan gözlerine güvenmeden bunları algılayabilen bir panzehir vazifesi görecek bir prosedürün olması gerekiyor.”
‘SUÇLULARIN CEZALANDIRILMASI GEREKİYOR’
Erginkurban ayrıyeten, “Sosyal medya platformlarının, deepfake içeriklerin tesiri nedeniyle çok büyük bir potansiyel tehdit olduğunu fark etmeleri gerekiyor. Çünkü toplumsal medyada şaşırtan bir görüntü paylaştığınızda sonuçlar çok süratli yayılıyor ve bunun toplum üzerinde ziyan verici bir tesiri oluyor. Bu tip bir durum kullanıcıların başına geldiğinde şikayet edebilecekleri ve süratle tahlil alabilecekleri yasal müracaat kanallarının açık olması, caydırıcı cezalarla ile hatalıların cezalandırılması gerekiyor” dedi.
‘CİDDİ TELAŞLARI BERABERİNDE GETİRİYOR’
Siberasist Genel Müdürü Serap Günal yaptığı açıklamada, “Teknolojik gelişmelerin büyük bir ivme kazanması sayesinde gerçekliği simüle etmek giderek kolaylaşıyor. Kurgusal fotoğraflardan yahut görüntülerden oluşan ve epeyce inandırıcı olan deepfake teknolojisi, günümüzde isminden daima bahsettiriyor. Bir görüntüdeki kişinin benzerliğini öteki biriyle değiştirilebilmesine imkan tanıyan bu teknoloji, önemli tasaları de beraberinde getiriyor. Berbat niyetli aktörler, derin öğrenme ismi verilen bir yapay zeka biçimi kullanılarak uydurma imajlar oluşturuyor ve kurbanlarını çoklukla ünlü şahıslar ve siyasetçilerden seçiyor. Lakin bu ferdî kullanıcıların da başına gelmeyeceği manasına gelmiyor” dedi.
BUNLARA DİKKAT EDİLMELİ
‘Son günlerde yaşanan kimi durumlarda bize bu durumun ne kadar önemli boyutlara oluşabileceğini de gösterdi’ diyen Günal, “Sahte bir imgenin ayırt edilebilmesinin epey güç olması dolandırıcılara gerekli tüm ortamı da hazırlıyor. Bir kişinin prestijini çarçabuk sarsabilen deepfake teknolojisinin internet ortamı için önemli tehditler oluşturduğu da aşikar. Değiştirilen bir imajın doğruluğunu tespit etmek çok sıkıntı olabiliyor lakin bazen geçersiz görüntü arkasında bir iz bırakabilir. Bu nedenle, düşük ses kalitesine, bulanık notalara, dudak senkronizasyonuna ve öbür olağandışı tutarsızlıklara dikkat edilmesi gerekiyor” sözünde bulundu.
‘GİZLİLİK AYARLARINIZI GÖZDEN GEÇİRİN’
Günal açıklamasının devamında şunları söyledi: “Günümüz dijital dünyasında internet bir siber savaş alanı haline gelmişken, dolandırıcıların son silahı da deepfake teknolojisi. Gerçekliğin büsbütün manipüle edildiği bu ortamda şahıslar, daha evvel hiç olmadığı bir yerde gösteriliyor ve bu görseller onları güç durumda bırakıyor. Toplumsal medyada her an imaj paylaşmak cazip gelebilir fakat her paylaşılan fotoğraf ve görüntü, siber saldırganların elinde kıymetli bir koz oluşturuyor. Bu nedenle, toplumsal medya platformlarındaki dijital ayak izlerine dikkat edilmeli ve ferdî bilgilerin toplumsal medyada paylaşılma konusunda daha hassas davranılmalı. Bilhassa hangi dataların kiminle paylaşıldığını netleştirmek için saklılık ayarların gözden geçirilmesi, deepfake teknolojisinin bir mağduru olmamak ismine kıymetli adımlardan birini oluşturuyor.”
BİRÇOK ÜNLÜ DE MAĞDUR OLMUŞTU
DeepFake bu vakte kadar birçok ünlüyü mağdur etti hatta etmeye devam ediyor. DeepFake ile mağdur olan ünlüler ortasında Emma Watson, Natalie Portman, Ivana Trump, Kate Middleton, Adriana Grande, Natalie Dormer üzere tanınan isimler yer alıyor.