Güncelleme Tarihi:
‘The Origin of the Universe (Evrenin Kaynağı)’ adlı konuşmada, 74 yaşındaki fizik profesörü, “Kırılgan gezegenimizden kaçmadığımız takdirde, bin yıla çıkacağımızı sanmıyorum” dedi. Hawking, insanoğlunun yaşamını sürdürebilmesi için gelecekte uzay yolculuklarıyla farklı gezegenlere yerleşmesinin şart olduğunu iddia ederek, “Bana göre, uzaya gitmezse, insan ırkının geleceği yok” ifadesini kullandı. Ünlü fizikçinin tezine göre, dünyadaki yaşam, ani bir nükleer savaş, genetiği değiştirilmiş bir virüsün kontrolsüz yayılması ya da giderek artan yapay zekâ tehdidi nedeniyle sona erebilir. Hawking, daha önce de Cambridge Üniversitesi’nde, insanlığın gelecekte yaratacağı yapay zekâ formu ile ya en büyük icadını yapacağını ya da hızlıca kendi sonunu hazırlayacağını söylemişti.
YAPAY ZEKÂ TEHDİDİ
Yapay zekânın insanoğlunun en büyük felaketi olabileceğini savunan Hawking, düzgün yönetilmezlerse, ‘düşünen makinelerin’ medeniyetimizin sonunu getirebileceğini belirtmişti. ‘Yapay zekâ’da kontrolsüz gelişmelerin karşısında olduğunu belirten Hawking, “Düşünen makineler, fakirliği ve hastalığı ortadan kaldırmak gibi çığır açıcı yeniliklerin yanı sıra, güçlü otonom silahların üretilmesiyle milyonlarca insana diz çöktürebilir” demişti.
‘YAPAY ZEKÂ İNSANOĞLUNU KÖLELEŞTİREBİLİR’
STEPHEN Hawking, yapay zekânın ekonomik sistemlerin çöküşünü hızlandıracağını, gelecekte kendi iradelerini kazanmaları durumunda, insaoğlunu köleleştirebileceklerini savunuyor. Google’ın yapay zekâsı ‘Deep Mind’ın bu yılın başlarında dünya Go şampiyonunu alt edebildiğini ve Microsoft’un yapay zekâsının da, sesleri tanıyarak ayırt edebilmeyi başardığına dikkat çeken Hawking, bu alandaki gelişmelerin ‘çok hızlı ilerlediğini’ düşünüyor. Profesör Hawking, bin bilim adamıyla, gelecekte yapay zekânın yaratabileceği tehlikelere karşı önlem alınmasını isteyen bir çağrı mektubuna da imza atmıştı.