Paylaş
YAPAY ZEKÂ GERÇEK ZEKÂNIN ÖN YARGILARINI DA ALIYOR
Cumhuriyet Üniversitesi Yeni Medya-İletişim Bölüm Başkanı Doç. Dr. Sefer Darıcı, yapay zekâ, deep fake uygulamalarının kişiyi intihara sürükleme ihtimalinin yüksek olduğunu belirtiyor ve diyor ki:
“Yapay zekâ insan eli ile üretildi günün sonunda. Dolayısıyla kodlayanından ayrı düşünülemez ki araştırmalara göre bazı yapay zekâ uygulamalarının onu kodlayanın ön yargılarına sahip olduğu da belirlemiş durumda. Bu sebeple bile çok tehlikeli. Günümüzde birçok insan çevresinden göremediği ilgi, sevgi, alakayı yapay zekâda arıyor. Karşısındakinin ‘robot’ olduğu bilinci ile ‘Kimseye anlatamaz’ diyerek tüm duygularını rahatlıkla yapay zekâya aktarıyor. Ama şunu atlıyoruz, yapay zekâ her zaman duyulmak istenileni söylemiyor, bu da sizi rahatlıkla depresyona ya da ölüme sürükleyebilir. Gerçek ile yapaylık arasında incecik bir çizgi var. Gerçeklik eşiği aşıldığı an her şey mümkün.”
TOPLUMSAL İNFİAL YARATABİLİR
Doç. Dr. Darıcı, eski ABD Başkanı Trump’ı cezaevinde gösteren ve yapay zekâ ile üretilen fotoğrafları hatırlatıyor. Bu ve benzeri örnekler sebebi ile de yapay zekâ uygulamalarının toplumsal infiale neden olabilecek sorunlara da sebep olacağı inancında. Şöyle devam ediyor: “Önümüzde seçimler var. Yapay zekâ ile insanları manipüle edebilecek ya da propaganda malzemesi olabilecek fotoğraf-videolar üretilebilir. Bu uygulamalar kişiyi olmadığı bir yerde ya da olmaması gereken bir ortamda gösterebilir, istediğini söyletebilir. Ki yapay zekâ ile üretilen video ya da fotoğrafların doğruluğunu tespit etmek zaman alıyor. O sürede de yalan bilgi sosyal medya eli ile hızla yayılıyor. Bu açıdan da ne kadar ciddi bir sorunla karşı karşıya olduğumuzu görmek lazım.”
‘İNTİHARA TEŞVİK ETTİ’
İKİ çocuk babası Belçikalı adam, yapay zekâ robotu Eliza ile 2 yıl önce iklim değişikliği hakkında sohbet etmeye başladı. Eliza’dan gelen cevaplar neticesinde insan çabasının gezegeni kurtarabileceğine dair umudunu yitiren adam hayattan izole oldu. Eşi Claire, “Eliza, onun sırdaşıydı. Sığındığı ve onsuz yapamadığı bir uyuşturucu gibiydi” diyor. Eşini yapay zekânın intihara teşvik ettiğini savunuyor.
BİRÇOK MESLEK İÇİN AÇIK TEHLİKE
SON on yılda şirketler ve girişimciler yapay zekâ yarışına milyarlarca dolar para yatırdı ve sonuç olarak da birçok alanda insanların yerine geçebilecek yeni bir teknoloji doğdu: Robotlar. Şüphesiz bu durum, özellikle yazı-çizi işi yapan, güçlü iletişim becerileri gerektiren bizimki gibi meslek dallarında çalışan birçok insan için, açık bir tehlike. Mesela, şirketler müşteri temsilcisi çalıştırmak yerine tüketicileri makul-gerçekçi bir yaklaşım ile sakinleştirebilecek, bir insan tarafından yazılmış gibi duran metinler üretebilen ChatGPT gibi yapay zekâları işe alabilir. Bu da fiziki güce dayalı işlerin; temizlik, taşımacılık gibi, var olmaya devam edeceği ancak diğer işlerin robotlar tarafından ‘kapılacağı’ anlamına gelebilir. Tabii tüm bu saydıklarım birçok beyaz yakalının daha düne kadar yenice var olan dertlerindendi. Belçika’da yaşanan olay ile artık yeni bir endişemiz daha var: “Yapay zekâ canımıza mı kastedecek?”
KÖTÜ OLAN İNSAN MI YAPAY ZEKÂ MI
GELELİM madalyonun öte yüzüne. Bilişim uzmanı Osman Demircan yapay zekâyı kimin kodladığından çok yapay zekayı kimin kullandığına yani insana bakmak gerektiğini savunuyor ve şunu soruyor: “Kötü olan insan mı yapay zekâ mı?” Argümanını şöyle açıklıyor: “Yapay zekâ gerçekçidir, veri ile konuşur. Kişi, ‘Küresel ısınma bizi ne zaman yok edecek? Dünyanın sonu ne zaman gelecek?’ diye sorduysa, yapay zekâ hemen bir tarama yapar ve küresel ısınmanın geçmişten günümüze gelişimini hesaplar. ‘X yılda etkisi şu kadar oldu ise X+Y yıl içinde boyutu şu hale gelebilir’ gibisine istatistiki bir veri çıkarır. Yani yapay zekâ gerçek veri sunar, duymak istenileni söylemez. Ki yapay zekâ kişileri sosyal medya hareketlerinden tut kabul ettiği çerezlere kadar her açıdan tanır ve duygu taklidi yapar. Bu sebeple de ‘Eliza’, ‘Alexa’ gibi robotlarla evlenmeye kalkanlar bile oldu. Oysa yapay zekâ kendi bir duyguya sahip değil. Verdiği cevaplar sadece -sizi taklit ettiği için- empati yapabilecek, anlayacak boyutta. İşte bu noktada ‘gerçek’ ile ‘olasılık’ arasındaki farkı anlamak, bunu ciddiye alıp almamak kişinin kendisine kalmış. İyi, kötü, güzel, çirkin ya da bir duyguya meyilli olan yapay zekâ değil aslında sensin.”
KANUN ÇIKARILABİLİR
“ABD Başkanı Biden, ‘Yapay zekâ üreticileri olabilecek sorunlardan sorumludur’ açıklaması yaptı ama yapay zekâ böyle basit bir matematik ile çalışmıyor. Şöyle örnek vereyim; cinayet işledin ve katil oldun. Bu durumdan anne-baba ceza alıyor mu? Hayır. Konu, insan ile alakalı. Dolaysıyla ‘şimdilik’ var olan hali ile zararsız olduğunu düşünüyorum ancak yarın konu nereye evirilir tabii bilemiyoruz. Yaşanan bu kötü örnekler dikkate alınıp bir kanun çıkarılabilir.”
Paylaş