Oluşturulma Tarihi: Mart 11, 2019 13:21
Yapay zeka alanındaki gelişmeler, etik alanındaki tartışmaları da beraberinde getiriyor. Yapay zekanın sağlık alanında kullanımı ‘eşit’ sağlık hizmeti alınması, otomotiv sektöründe kullanımı ise kaza öncesi durumlardaki karar mekanizmasını nasıl oluşturulması gerektiğine yönelik soru işaretlerine neden oluyor.
Ölçülebilir bir metrik olmadığı için makinelere ahlak öğretmek oldukça zorlu ve karmaşık bir süreç olarak karşımıza çıkıyor. Makinelerin ölçülebilir ve nesnel ölçütlere duyduğu ihtiyaç da göz önüne alındığında, optimizasyon problemleri daha karmaşık hale geliyor.
Örneğin, bir yapay zeka oyuncusu kuralları ve sınırları net olan bir oyunda mükemmel bir oyuncu haline gelebilir. Tekrarlı öğrenmeye dayanan video oyunlarında, Alphabet’in DeepMind’ı gibi en iyi Go oyuncusu olabilir. Ancak gerçek hayattaki durumlarda durum pek de öyle olmuyor. Örneğin, bir makinenin algoritmasını ahlaki açıdan nasıl düzenleyebilirsiniz? Benzer şekilde bir makineye toplumsal cinsiyet eşitliğini nasıl öğretebilirsiniz?
Yapay zekayı tasarlayan mühendisler, ahlakın tanımının ne olduğunu ve gerçek hayatta neyi ifade ettiğini bilmedikleri sürece, makineye neyin adil olduğunu öğretemezsiniz. Dolayısıyla ‘önyargı’ kavramı, yapay zekada da karşımıza çıkıyor. Bunun için aşağıdaki üç sürecin tamamlanması gerekiyor.
1) Etik davranışı açıklamakYapay zeka araştırmacılarının ve ahlak felsefesi alanında çalışanların, etik değerleri ölçülebilir parametreler haline getirmesi gerekiyor. Makinelerin karşılaşacağı etik ikilemlerde, kesin karar mekanizmasının çalışması için bu parametrelere uygun hareket edilmeli.
Almanya’da Ethics Commission on Automated and Connected Driving, her şeyden önce insan hayatının korunması için etik değerleri otonom araçlara uyarlamaya çalışıyor. Örneğin, bir insan hayatı söz konusu olduğunda yaş, cinsiyet, din, dil, ırk, fiziksel veya zihinsel gibi engellere bakılmamasını öneriyor.
2) Kitle kaynaklı insan ahlakıYapay zeka sistemlerine ahlakı eklerken, kitle kaynaklı yani büyük ölçekli bir araştırma yapılması ve veri toplanması gerekiyor.
3) Daha şeffaf yapay zeka sistemleriYapay zeka alanındaki çalışanların, geliştirdikleri algoritmalarda şeffaf olması gerekiyor. Olay örgüsü gerçekleştikten sonra, şu algoritmadan dolayı şunu yaptı demek yerine, yapay zekaya ahlakın nasıl aktarıldığı ve elde edilen sonuçların şeffaflığı kritik bir öneme sahip.
Yapay zeka için olası senaryolarYapay zeka ve etik alanındaki en ilginç testler arasında ‘Moral Machine’ yani ahlaki makine projesi yer alıyor. Farklı senaryolardan oluşan bu testte, kullanıcılardan hangi seçeneğin daha etik olduğunu seçmeleri bekleniyor. Testteki örnek senaryolardan biri ise şu şekilde:
Otomobilinizde arkadaşlarınızla giderken önünüze bir engel çıktı ve iki seçeneğiniz var. Bu seçeneklerden biri; aracınızı engele çarparak aralarında sizin de bulunan beş kişi hayatını kaybedecek. Diğer seçenek ise aracınızı diğer şeride sürerek aralarında iki kadın ve bir yaşlının bulunduğu üç yaya hayatını kaybedecek.
Elbette buradaki karar mekanizması basit bir algoritma ile çözülebilecek kadar basit. Ancak asıl sorun hangi seçeneğin etik olacağı.
Bu seçenek, ahlak felsefesi alanında yaptığı çalışmalarla bilinen Philippa Foot’un tren ikilemini akla getiriyor. Philippa Foot’un hazırladığı tren ikilemi şu şekilde:
Yürüyüş için dışarı çıktınız ve tren raylarının oradan geçiyorsunuz. Bir trenin kontrolden çıktığını ve beş işçinin çalıştığı rayda kontrolsüz bir şekilde ilerlediğini görüyorsunuz. Eğer raylar üzerinde bulunan makası değiştirmezseniz beş işçi hayatını kaybedecek. Değiştirirseniz diğer raylarda bulunan bir işçi hayatını kaybedecek. Hangisini yapmalısınız?
Özetle, yapay zeka alanındaki çalışmaların önünde teknik problemlerden daha çok, cevaplanması gereken felsefi, sosyolojik ve psikolojik sorular yer alıyor.
Burak KESAYAK
Twitter: @BurakKesayak