Paylaş
BUNCA YILLIK FOTOĞRAFÇIYIM BÖYLE İYİ ‘FAKE’ GÖRMEDİM
‘DEEPFAKE’ teknolojisi ile üretilen Trump fotoğraflarını gazetenin fotoğraf servisi şefi Levent Kulu ile aynı anda gördük. Fotoğrafların sahte olup olmadığını anlamak için bilgisayarda 5 kat büyütüp baktık. Fotoğrafları büyüttükçe detayları daha net seçebiliyorsun ancak ilk bakışta, hele de fotoğraf küçükse, kimsenin sahte olduğunu anlaması mümkün değil. Kulu bana katılıyor: “Meslekte 25. yılım. Ukrayna-Rusya Savaşı dahil bunca savaş, bunca deprem, bunca eylem gördüm, inan ilk bakışta ben de gerçek sandım. Başarılı bir üretim. Bir yandan da ‘Eski de olsa bir ABD Başkanı böyle göz altına alınmaz’ diyerek şüphe kasını, gazetecilik refleksini çalıştırıyorsun. Manipülasyona açık, kışkırtma hedefli kullanılabilecek fotoğraflar bunlar. Mesleki olarak da endişeye kapıldım, ‘Nereye gidiyoruz’ diye...”
“Mesela yukarıdaki fotoğraf; ilk anda gerçek bir gözaltı anı gibi ama.
1- Saçlarda fırça ile çizilmiş gibi keskin izleri görebiliyorsun.
2- Ayrıca el detayı yok, ‘kalıp’ gibi, suluboya gibi.
3- Arka plan bulanık, alan derinliği yok, gerçek bir ‘an’ olmadığı belli.
4- İnsanların mimikleri ‘donuk’, düşük çözünürlükle çekilmiş izlenimi veriyor.
5- Ve kafa detayları; proporsiyon olarak gerçeklikten uzak, daha büyük resmedilmiş.
YAPAY ZEKÂ İLE SAVAŞ ÇIKARMAK MÜMKÜN
FOTOĞRAF editörümüz Uğur Yurdakul da ünlü filozof Walter Benjamin’den bir alıntıyla katılıyor bize: “Günümüzde cehaletin ölçütü okuma-yazma bilmemekle değil fotoğraf okuryazarlığı ile ölçülecek.” Şöyle devam ediyor: “Yapay zekâ yöntemi ile üretilenle gerçeği arasındaki farkı anlamak imkânsız. Dolayısıyla bu fotoğraflar kitleleri ayağa kaldırır, ülkeler arası hatta iç savaşlar çıkarılabilir mi? Fotoğraftan anlayanlar olmasa evet çıkarır. Bizim ‘manipüle fotoğraf’ dediğimiz bu fotoğraflar 1870’lerden beri yapılıyor. O dönem üst üste pozlama ile yapılıyordu. Fotoğrafçı manipülasyonunu söylüyorsa etik açıdan sorun yok ama asıl sorun fotoğrafın üretim amacı ve üretilme şeklinin açıklanmamasında. Mesela bu fotoğraf:
1- Teknik açıdan gereksiz bir parlaklık var.
2- Fotoğrafı iyice büyütüp kenar çizgilerine bakınca renk dağılmalarını görebiliyorsunuz.
3- Trump’ı yakalama anında ‘hareketin netsiz’ kalması söz konusu. Eğer bir obje hareket ettiği için fotoğraf net çıkmamışsa o netsizlik fotoğrafın tümü için geçerlidir. Ancak burada Trump ve polisler hareketli olmasına rağmen sadece Trump’ın yüzü net değil ama diğerleri net. Ayrıca insanların yüzleri mimiksiz ve yapay, sahteliği ele veriyor.
HER GÖRDÜĞÜNÜZE İNANMAYIN
SİBER Güvenlik Uzmanı Osman Demircan ise diyor ki: “Yapay zekâ ile üretilen bu gerçekçi görüntüler dolandırıcıların da yeni silahı çünkü yapay zekâ ile istediğiniz kişinin görüntüsünü ve hatta asla var olmayan birini bile yaratabilirsiniz. Tek yapmanız gereken -kimi istiyorsanız onu- sisteme tanıtmak. Mimiklerini, sesini, duruşunu... Bolca fotoğraf ve video yükledikten sonra sistem en doğru görünüşü otomatik verecek zaten. İşte bu sebeple ‘Sosyal medyada çok fazla fotoğraf ve video paylaşmayın’ diyoruz çünkü yapay zekâya kendiniz kendinizi öğretiyorsunuz. Yüzünüzü gençleştirdiğiniz, eğlenceli videolar yaptığınız aplikasyonlar da aslında bir ‘deepfake’, ‘yapay zekâ.’
HOLLYWOOD ESERİ
“Yapay zekâ aslında oyuncu kaprisini ortadan kaldırmak için Hollywood film stüdyolarından çıkma bir sistem. Ama geldiği nokta korkutucu. Ukrayna-Rusya Savaşı’nın ilk günleri, Ukrayna Devlet TV’sinde Zelenski’nin ülkesine teslim olma çağrısı yaptığı sahte bir video yayımlandı. Video kısa bir panik yaşatsa da saldırının arkasında Rus hacker’lar olduğu ortaya çıkmıştı. Anlayacağın bu konularda sağ duyulu olmak ve her gördüğümüze inanmamak gerek. İnsanları sokağa davet eden, iç karışıklık çıkarabilecek videolar, fotoğraflar üretilmesi inan çok kolay.”
DOLANDIRICILIĞA DİKKAT
“Yapay zekâ dolandırıcılığa da kapı açmış durumda. Sen, seni arayanın patronun ya da iş arkadaşın olduğunu sanıyorsun ama konuştuğun ‘kişi’ değil aslında ‘yapay zekâ’. Bankacılık uygulamaları aracılığıyla ‘fake’ ses ve video ile Suudi Arabistan’da bir banka 50 bin dolar dolandırıldı geçen yıl. Bu sebeple sizi arayana, hele de maddi bir mesele ise doğrudan bilgilerinizi vermek yerine lütfen kilit sorular sorun. Ayrıca zehir varsa panzehir de var. Yakın bir gelecekte video ve sesin sahte olduğunu anında anlayacak yeni aplikasyonlar da piyasaya çıkacak.”
Paylaş