Paylaş
Kısa bir pasaj: “Yeni kitabına başlamak için heyecanlıydı... Aylarca süren düşünceler, haftalar alan taslakların ardından ilk satırları kelimelere dökmeye hazırlanıyordu... İşte, her yazarın yüzleştiği o ilk cümleyle imtihan halindeydi şimdi. Kararsızdı... Zihnindeki çekişmeyi bir anda terk edip ‘o’ndan yardım isteyebilirdi. Tedirgin parmakları ekrana uzandı. Aklındaki soru ellerini yavaşlatıyordu. Bir bilimkurgu romanı da olsa ilk cümlesini yapay zekânın yazmasını istemek... Kabul edilebilir bir şey miydi?”
Okuduğunuz pasajın köşe yazısı girizgâhı için deneysel olduğu aşikâr... Halbuki bir romanın ilk paragrafı pekâlâ olabilirdi. Hayali yazarımızın ‘ilk cümle sancısını’ aşmak için kullanmaya tereddüt ettiği yapay zekâysa yakında gerçek olacak. Gelişmiş dil modelleriyle insansı diyaloglar üreten yapay zekâlar, teknoloji trendleri arasında hızla yükseliyor. Geçen haftalarda Google mühendislerini şaşırtan, duyarlı ve kendini bilir hale geldiği iddialarıyla sansasyon yaratan LaMDA’yı hatırlarsınız. Akıcı ve mantıklı diyaloglar geliştirebilen yapay zekâ modelleri kendisini kodlayanları bile ‘acaba bilinçlendi mi’ diye ikileme düşürecek kadar ilerlemekte. Ancak bu gelişmenin biliminsanlarını endişelendiren bir yanı var. Yapay zekâların cümleleri akıcı ancak anlattıkları bilgilerin doğruluğu tam bir muamma. İnsanlar yapay zekânın sunduğu bilgileri tümden doğru kabul etmeye başlarsa, çağımızın sorunsalı bilgi kirliliğinden tutun toplumsal manipülasyona kadar uzanan riskler belirmeye başlıyor. Gelin, konuyu hem insan hem de yapay zekâ tarafından inceleyelim.
Çok yüksek hızda işlem yapabilen süper bilgisayarlar sayesinde onlarca yıllık araştırmaların meyvelerini topladığımız dönemdeyiz. Günümüzün en gelişmiş yapay zekâ modeli GPT-3, tıpkı LaMDA gibi insanlara anlamlı gelen metinler üretme konusunda üstün yetenekli. OpenAI’ın geliştirdiği GPT-3, halka sunulduğu 2020 yılında büyük ilgi toplamış ve hemen Microsoft tarafından satın alınmıştı. Dünyanın her yerinden yapay zekâ araştırmacıları, üyelik ücreti ödeyerek GPT-3 ile çalışabiliyor. GPT-3 her konuda sohbet edebiliyor, iş başvuru mektuplarından edebi hikâyelere kadar farklı metinler yaratabiliyor.
YouTube’da ‘Two AIs’ anahtar kelimeleriyle aratarak sohbet eden yapay zekâları izleyebilirsiniz. Aşkın doğası üzerine konuşan, insanların ekran bağımlılığını değerlendiren, varoluş, tabiatın karmaşıklığı, Tanrı kavramı gibi konularda sohbet eden yapay zekâları ilham verici buluyorum. Sentetik kadın ve erkek karakterle canlandırılan yapay zekâların aşkın doğası üzerine konuşurken birbirlerine olan ilgilerini flört veya utangaçlık hallerine girmeden, safça ifade edebilmeleri ilgimi çekiyor örneğin. Ancak bir başka videoda Leta isimli yapay zekâyı deneyen bir adamın “Aynanın rengi nedir” sorusuna “...atomlar camın gümüş yüzeyine çarpıp geri sekerler” yanıtıyla hatalı bilgi aktarıldığını yakalıyorum. Cama çarpanın atom değil, foton olduğunu bütün meraklı çocuklar bilir...
Yine yapay zekâyı soyut kavramlarla deneyen bir profesörün “Amuda kalkarak merdiven nasıl tırmanılır” şeklindeki sorusuna GPT-3’ün yanıtı “Ellerini yıkarsan baş aşağı merdiven tırmanmak güvenlidir” şeklinde oluyor. Dünyadaki en gelişmiş yapay zekânın bile aslında kavramsal farkındalığı olmadığını, anlamsızlığı sorgulayamadığını görebiliyoruz. Yapay zekâlar gelecekte hastalıklara teşhis koymak, mahkemelerde avukatları ve hâkimleri asiste etmek ve yaya geçitlerinin üzerinden araba sürmek için kullanılacak. Hatta medya kanallarının haberleri zenginleştirmek için faydalanması, politikacıların seçim kampanyalarında destek alması bile mümkün...
Kara kutu gündemde
Gelişmiş yapay zekâ dil modelleri, kullandıkları cümleleri ve bilgileri internetten ve gerçek insanların yazışmalarından, makalelerinden, kitaplarından alıyorlar. Metinleri etiketlemek ve sorulara uygun yanıtlar derlemekse algoritmanın marifeti. İşte bu noktada yapay zekânın kara kutusu gündeme geliyor. Rekabet içindeki büyük teknoloji şirketleri, başta OpenAI (Microsoft) ve Google, bilgilerin nasıl oluşturulduğu, toplandığı ve etiketlendiğini sır gibi saklıyor. Dolayısıyla dışarıdakilerin yalan yanlış bilgi, önyargı ve benzeri hatalara yol açabilecek algoritma kusurlarını görme şansı yok. Yapay zekâ alanında Google ve MS’e yetişmeye çalışan Meta, açık kaynaklı modelleri savunan şirketlerden. BigScience isimli inisiyatifse açık kaynaklı bir yapay zekâ dil modeli geliştiriyor. İngilizce ve Çinceye odaklanan çoğu modelin aksine Arapça, ve İspanyolcanın dahil olduğu 46 dilde çalışacak model, yapay zekânın kültürel önyargılarını da aşmayı hedefliyor.
İnsan beyninin ‘bug’ı
İnsanın yapay zekâya karşı zafiyeti ‘bilişsel kayma’ (cognitive glitch) adı verilen bir fenomenden kaynaklanıyor. İnsan beyni kelimelerin ardındaki niyetleri yorumlamaya programlıdır. Bir kimseyle sohbet ederken onun zihinsel yapısına dair bir şema algımızda oluşmaya başlar. Sarf ettiği her kelime ve cümleyle o kişinin amaçlarını, hislerini ve inançlarını sezgisel olarak tanımlamaya başlarız. Misal, bu yazının girişindeki hayali yazarın karakterini sadece birkaç cümleyle bile tanımaya başlamış olmalısınız. Aynı zamanda akıcı konuşmayı, akıcı düşüncenin bir sonucu olarak algılamaya meyilliyiz. Karşımızda konuşan kişi insan değil de yapay zekâ olduğunda bilişsel kayma meydana geliyor ve onu zihni ve düşünceleri olan, üstelik akıcı konuştuğu için akıcı düşünebilen, dolayısıyla zeki ve söylediklerine inanılabilir bir varlık olarak algılamaya başlıyoruz. Sonuçta insanlar, yapay zekâyla manipüle edilebilir hale geliyor. İnsan beyninin ‘bug’ı da (açığı) bu.
Kısa kısa
‘Azınlık Raporu’ tadında...
Tom Cruise’un başrolünü oynadığı ‘Azınlık Raporu’ filminde emniyet teşkilatına bağlı kâhinler cinayet suçlarını işlenmeden tahmin ediyordu. Şikago Üniversitesi araştırmacılarıysa, yapay zekâyla 2014-2016 yılları arasındaki suç oranlarını ve bölgeleri analiz ederek birkaç hafta sonra gerçekleşen suç oranını yüzde 90 ölçüde doğru bilmeyi başardı. ABD’nin diğer büyük şehirlerine de uygulanan model yine yüksek oranda doğru sonuçlar verdi. Yapay zekâyla suç tahmini konusu geçmişte etik tartışmalara yol açmıştı. Şikago’daki suçların çoğunlukla yaşları 20 ile 29 arasındaki siyahlar tarafından işlendiği bilgisine dayanan yapay zekâ, siyahları ‘suç potansiyeli yüksek’ şeklinde yaftalamaya başlayınca büyük tartışmalara yol açmıştı. Yeni algoritma kişilerden bağımsız olarak sadece hangi bölgede kaç adet suç işleneceğini tahmin ederek ırkçı tespitlerden sakınıyor.
ABD’de suçla mücadelede yapay zekâ tekrar devrede.
Paylaş