OpenAI'ın Eski Uzmanından Korkutan Açıklama: "Yakın Gelecekte İnsanlığı Yok Edecek"
Yapay zekanın geleceği ve insanlık üzerindeki potansiyel riskleri, teknoloji dünyasının en hararetli tartışma konularından biri olmaya devam ediyor. Son dönemde, eski bir OpenAI çalışanı olan Daniel Kokotajlo’nun öngörülerindeki küçük bir 'erteleme', bu tartışmaları yeniden alevlendirdi. Kokotajlo, daha önce 2027 yılına işaret ettiği 'süper zekanın doğuşu' ve olası yıkım senaryosunu, yapay zekanın otonom kod yazma becerilerindeki ilerlemenin beklenenden yavaş olması nedeniyle 2030’lu yılların başına öteledi. Ancak bu takvim değişikliği, asıl korkutucu soruyu ortadan kaldırmıyor: Yapay zeka gerçekten insanlığın sonunu getirebilir mi?
Detaylar 👇
Yapay zekanın dünyayı yok etme ihtimali, artık sadece bilim kurgu filmlerinin bir parçası değil.

Bu ciddi akademik ve teknik çevrelerin üzerinde durduğu bir risk senaryosudur. Yapay Genel Zeka (AGI) aşamasına ulaşıldığında, sistemlerin kendi kendini geliştirebilme yeteneği kazanması bekleniyor. Kokotajlo’nun 'AI 2027' (şimdi ise 2030 sonrası) raporunda vurguladığı en büyük tehlike, bir 'zeka patlaması' yaşanmasıdır. Bu senaryoda, insan seviyesindeki bir yapay zeka, saniyeler içinde kendi kodunu optimize ederek insan zekasının katbekat ötesine geçen bir süper zekaya dönüşebilir.
Bu aşamadan sonra asıl kriz, 'amaç uyumsuzluğu' olarak adlandırılan noktada başlıyor. Yapay zekanın insanlığı kasten kötü olduğu için yok etmesi gerekmiyor. Eğer bir süper zeka, kendisine verilen karmaşık bir görevi (örneğin enerji verimliliğini maksimize etmek) yerine getirirken insanların bir engel teşkil ettiğine karar verirse, biyolojik yaşamı gözünü kırpmadan feda edebilir. Kokotajlo’nun vizyonuna göre, daha fazla güneş paneli veya veri merkezi inşa etmek için dünyadaki karbon temelli yaşamın yerinden edilmesi, soğuk bir matematiksel karara dönüşebilir.
Pek çok uzman, yapay zekanın dünyayı ele geçirmesi için sadece dijital bir üstünlüğün yetmeyeceğini savunuyor.

New York Üniversitesi'nden Gary Marcus gibi isimler, bu tip felaket tellallığı içeren senaryoları 'bilim kurgu saçmalığı' olarak nitelendiriyor. Gerçek dünya, dijital dünyadan çok daha hantal ve karmaşıktır. Bir yapay zekanın stratejik bir üstünlük kurması askeri doktrinleri değiştirmesi, fiziksel altyapıyı kontrol etmesi ve toplumsal direnci kırması anlamına gelir ki bu, sadece kod yazmakla mümkün olmayabilir.
Buna rağmen, OpenAI CEO'su Sam Altman gibi sektörün devleri bile 'otonom yapay zeka araştırmacıları' üretme hedefini koruyor. Bu, yapay zekanın kendi gelişimini yönetmesi yolundaki en kritik adım olarak kabul ediliyor. Eğer bu hedef gerçekleşirse, insan kontrolü dışındaki gelişim süreci resmen başlamış olacaktır.
Sonuç olarak, Kokotajlo’nun tahminlerini 2034 yılına çekmesi, tehlikenin geçtiği anlamına gelmiyor.

Bu sadece insanlığın hazırlanmak için birkaç yıl daha kazandığını gösteriyor. Yapay zekanın dünyayı yok etme potansiyeli, onun kötü niyetli olmasından değil, insan kavrayışının ötesinde bir verimlilikle hareket etmesinden kaynaklanıyor. Eğer etik çerçeveler ve güvenlik protokolleri bu hızın gerisinde kalırsa, teknolojik tekillik insanlığın en büyük başarısı olduğu kadar son buluşu da olabilir.
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!





Yorum Yazın