yapay-zekanin-ulastigi-tehlikeli-zirve-deepfake-2

“Deep Learning/ derin öğrenme” ve “fake/sahte” kelimelerinin birleşimi olan Deepfake; birden çok algoritmayı kullanarak, ham verilerden daha üst düzey özelliklere erişmeyi sağlayan bir yapay zeka yöntemidir. Bu yöntemle bir insanın yüzündeki sinir ağları verileri toplanarak, gerçeğinden ayırt edilmesi neredeyse imkansız olan videolar oluşturulabiliyor.

Öncelikle “hedef” olarak belirlenen kişinin dijital ortamdaki fotoğraf ve videoları üzerindeki tüm yüz sinir ağı verileri yapay zeka vasıtasıyla toplanıyor. Daha sonra “kaynak” kişinin verileriyle bir sentez oluşturuluyor. Sonuç olarak ortaya gerçeğinden ayırt edilmesi son derece zor olan sahte bir video çıkıyor.

Aslında çok yeni bir teknik olmamakla beraber, Deepfake teknolojisinin bugün ulaştığı nokta, etik tartışmalara yol açmakla beraber, yaşanabilecek büyük tehlikeler bakımından dijital dünyanın en dikkat çekici alanlarından birini oluşturuyor.

Böyle bir yapay zeka sistemiyle oluşturulan görüntüler giderek daha inandırıcı hale geliyor. Sinema endüstrisi bakımından yaratacağı avantaj, belki de bir savaş/çatışma çıkarabilecek korkunç etkileri düşünüldüğünde konuşmaya bile değmez.

SIRADAN İNSANLAR OLARAK İŞİMİZ PEK DE KOLAY DEĞİL

Medyanın tüm enstrümanlarıyla, yoğun biçimde algı yönlendirme aracı olarak kullanıldığını hatırlayacak olursak, henüz dijital dünyadaki bir içeriğin (çoğunlukla haber) gerçekliğini tespit edebilecek dijital okur-yazarlık seviyesine bile ulaşamamışken, gerçek sanılan sahte videoların, sıradan insanlar ve halk kitleleri üzerinde etki edebileceği alanları ve sonuçlarını düşünmek bile ürkütücü..

OLUŞTURMA VS. TESPİT ETME

Gerçeğe en yakın sahte yüz videoları için yaklaşık olarak 5.000 poz fotoğraf gerekiyor ve  verilerinin toplanması gerekiyor. Herhangi birini hedeflediğinizde, insanların hastanede serum taktırmış pozlarından, fonda yatak odası dekoru görünen mahrem mekanlarına kadar her an, her tür fotoğrafı gönüllü hatta zevkle paylaştığını düşünecek olursak, bu sayıya ulaşmak pek de zor bir iş değil.

Sahte videolar oluşturmak üzere çalışanlara karşı, başka bir teknolojik grup da Deepfake videoları tespit edebilen yazılımlar üzerine çalışıyor. Bugün gelinen noktada verebileceğim tek iyi haber; sahte yüz videolarını yakalayabileceğiniz fizyolojik bir sinyal; göz kırpma..

2018’de geliştirilen bu metodla, insanların doğal göz kırpma süreleri ve sinir ağları baz alınarak, sahte videolar ile karşılaştırılıyor. En başarılı yöntemlerden biri olmasının sebebi ise gözlerin kapalı olduğu fotoğraf sayısının az olması. İnsanlar genellikle gözlerinin kapalı çıktığı fotoğrafları paylaşmıyor. Bu avantajın bizi uzun süre korumayacağını da eklemek gerek. Hatta şu anda bu sorunun da aşılmış olabileceğine inanıyorum..

Dijital dünyada ulaştığımız en gerçek bilgi; “Geçekle sahte olanı ayırmanın imkansıza doğru hızla yol aldığı..” Maalesef bu gerçek kendi dünyasıyla sınırlı kalacağı benzemiyor.

Duygularımız ve ilişkilerimiz üzerinden kültürümüze de sirayet eden bu illüzyondan mümkün olduğunca korunmak üzere,

Gerçekten sunduğum sevgilerimle..

 

Nursah SUNAY
1983 İstanbul doğumlu olan Nurşah Sunay aslen Of’ludur ? Elektrik Aydınlatma sektöründe reklam satışı, marka danışmanlığı, sektörel fuar hizmetlerine kadar olan tüm Satış-Pazarlama birikimini, 2010 yılında kurduğu Sektörüm Elektrik Aydınlatma Dijital Dergisi’ne taşıyarak sektöre önemli katkı sunan bir medya organı oluşturmuştur. Farklı disiplinlerde bilgi edinmeyi kişisel ilgi alanı olarak benimsemiş; Ekonomi alanında Sermaye Piyasası ve Menkul Kıymetler Borsası, Dinler Tarihi alanında İlahiyat ve Gazetecilik alanında Yeni Medya lisans ve ön lisans eğitimlerini tamamlamıştır. Evli ve 4 çocuk annesi olan Nurşah Sunay, tüm mesleki faaliyetlerini, Sektörüm Dergisi’nin Dijital Medya Direktörlüğünü de üstlenen eşi Serdar Sunay ile birlikte yönetmektedir.