Zelensky’e “Teslim oluyoruz” dedirtenlerin saldırılarına seçim yolunda bizler de maruz kalabiliriz…

0

Geçen yıl bu zamanlarda, Rusya’nın ülkesini istila harekatı henüz yeni başlamışken, Ukrayna Cumhurbaşkanı Volodymyr Zelensky’nin askerlerine hitaben, “Silahlarınızı bırakın, teslim oluyoruz” dediği bir dakikadan az süren bir video, bazı sosyal medya sitelerinden dünyaya yayıldı.

Her haliyle Zelensky görünümündeki o kişi bir bilgisayar uygulaması ürünüydü. Gerçek değildi.

Bu tür gerçeğe benzeyen yalan görüntülere ‘deepfake’ (derin çakma)  adı veriliyor. 

Önceki gün, İYİ Parti lideri Meral Akşener’in siyasi tarihimize geçecek konuşmasını dostlarla birlikte izlerken, ilk aklıma gelen, kısa süre önce New York Times (NYT) gazetesinde karşıma çıkan ‘deepfake’ ile neler yapılabildiğine dair bir haber oldu.

Ne yalan söyleyeyim, o şaşkınlıkla, hiç değilse bir an, Akşener yerine çakmasının konuşturuluyor olabileceğini düşündüm…

Zelensky’e yapılan gibi…

Uzun aylar boyunca, her ay en az bir kere aynı masayı paylaşmış, arada ikili-üçlü görüşmelerle dostluklarını pekiştirmiş, ‘pazara kadar değil mezara kadar’ beraberlikten ayrılmayacağı güvencesini her fırsatta tekrarlamış, sadece 24 saat önce “Tamam, aday konusunda anlaştık” diyen bir metne imza atmış İYİ Parti lideri, izlediğim videoda, zihnimde tazeliğini koruyan bu imajına taban tabana ters şeyler söylemekteydi.

Dediğim gibi, görüntülerin ‘deepfake’ ürünü olduğunu düşünmeden edemedim.

NYT, Londra’da, zemininde bir giyim mağazasının bulunduğu bir binanın üst katında yerleşik Synthesia adlı bir firmadan söz ediyor. Ayda 30 Dolar ödeyenlere ürettiği uygulamayı kullanma izni veriyormuş bu firma. Aboneler firmanın gerçek erkek-kadın modellerle canlandırdığı 85 değişik tipleme ve 120 ayrı dilde konuşma özelliğini işlerine geldiği gibi kullanabiliyorlarmış.

Modeller, uygulamada istendiği zaman kendi görüntüleriyle birer haber sunucusu kimliği ediniyor ve hedef ülkenin diliyle konuşturularak gerçek olmayan -daha doğrusu yalan- haberler aktarıyormuş…

O tiplere bilgisayar dilinde ‘avatar’ deniliyor. 

Anna adı verilen bir kadın avatar, haber sunucusu kimliğiyle, Burkina Faso’ya dönük bir yalan haber bombardımanında kullanılmış. Aslında gerçek biri olmayan avatar sunucu, ülke halkına, “Bu ortak mücadelede hepimiz Burkinabe halkının yanında yer alalım” dedikten sonra haberini “Ya vatan ya ölüm, biz bunun üstesinden mutlaka geleceğiz” cümlesiyle tamamlamış.

Meral Akşener’in önceki günkü şaşırtıcı açıklamasında da Burkina Faso halkına avatar Anna’nın hitap ettiği metindekine benzer cümleler vardı; zaten onu dinlerken gerçek-dışı bir videoyu izliyormuşum hissine kapılmamın sebebi de bu benzerlikti.

Synthasia Londra merkezli bir firma ve ürettiği uygulama şimdiye kadar bilinen aynı amaçlı başka programlardan daha gerçeğe yakın bir yalan görüntü sunabiliyor. Ancak, bu işe ilk başlayanlar ve dünyayı gerçekmiş hissi uyandıran yalan görüntülerle ilk tanıştıranlar Çinliler.

Çin firması iFlyke, 2017 yılında düzenlediği basın toplantısında, dönemin ABD başkanı Donald Trump’ı Çince konuşturma başarısını herkesle paylaşmıştı.

O firmanın sattığı bilgisayar uygulaması ürünü videolar Twitter başta olmak üzere pek çok sosyal medya platformundan dünyaya yayılma imkanı bulabilmişti.

Teknoloji o yıldan sonra çok daha gelişti.

Zelinsky’e “Teslim oluyoruz” dedirtilen çakma video ilk yayına verildiğinde Ukrayna halkı şaşkınlığa uğramıştı.

Benim önceki gün Meral Akşener’i izlerken uğradığım şaşkınlık gibi…

Haber sunucunuz Anna.. Aslında bir avatar o, gerçek değil..

Konuya ilişkin haberine, Syntasia’nın avatarlarından George ve Anna tarafından sunulan haber programlarından örnekler de eklemiş NYT. Uyduruk bir televizyon kanalı –Wolf News– sunucuları görüntüsündeki bu iki avatar, gerçeklerle ilgisi bulunmayan uydurma bilgilerle dolu birer bülten sunmaktalar.      

Gerçekmiş gibi.

Anna ya da avatar, uluslararası bir zirvede Çin’in oynadığı jeostratejik rolü öve öve bitiremiyor.

Zaten videoların Çin’de yerleşik trollar tarafından yaygınlaştırıldığı tespit edilmiş.

Graphika adlı bu tür çakma videoların peşine düşen, yalan haberleri ortaya çıkarmak üzere faaliyet gösteren bir kuruluş tarafından…

Bir anlık tereddütten sonra, Meral Akşener’in görüntüsünün bir ay önce NYT’ta çıkan haberden öğrendiğim türden bir çakma görüntü olmadığını, zaten İYİ Parti liderinin konuşmayı basın mensupları önünde yaptığını anladım.

Ancak yine de böyle bir teknolojinin varlığının kötü ellerde nelere yol açabileceğini düşünmeden edemedim.

Çinliler bunu yıllardır yapıyor.

Londra’daki firmaya ödeyecek ayda 30 doları bulunan herkes teknolojik uygulamayı kullanabiliyor.

Herhalde daha önce ABD, Almanya ve İskandinav ülkeleri seçimlerini etkilemek üzere çaba gösterdiği bilinen Rusya’daki trolcü yapıların da elleri armut toplamıyor.

Peki ya ABD ve Avrupa ülkelerindeki bazı örgütler?

Yarın, yarın olmazsa seçime beş kala, YouTube üzerinden gerçekmiş görüntülü bir haber-yorum videosundan evlere-ofislere ulaşan ‘derin çakma’ ürünü Türkçe konuşan avatarlarla tanışmayacağımızı, onların aktardığı gerçek olmayan bilgilerden etkilenmeyeceğimizi kim garanti edebilir?

Sadece kişiler değil, parti liderleri, kamuoyu önderleri, gazeteciler, hatta ve hatta devleti yönetenler bile ‘derin çakma’ videolara maruz kalabilir ve kanaatlerini onlardan etkilenerek oluşturabilirler…

Trollerin yıllardan beri sosyal medya platformları üzerinden yağdırdıkları sahte bilgiler, muhataplarını sindirmeye, korkutmaya çalışan küfürlü mesajlar gibi…

Zor olacak seçime kadar geçecek 70 günlük süre…

Hazır mıyız?

YORUM YAZ

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz