Prof. Dr. Ali Rıza Büyükuslu
Üstün Zekalı Makineler, Entelektüel Patlama ve İnsanlığın Geleceği
Yapay zekanın (YZ) insan zekasını genel bilişsel yetiler açısından aşma ihtimali, bilimsel ve teknolojik çevrelerde giderek daha fazla ciddiyetle ele alınmaktadır. Nick Bostrom’un Superintelligence (2014) adlı eseri bu ihtimali hem teknik hem etik yönleriyle ele alırken, insanlık için bir varoluşsal riskin kapısını aralamaktadır. Genel yapay zekanın insan ötesi zekaya ulaşması ihtimali, olası yolları, karşılaşılabilecek riskler ve bu süreci güvenli şekilde yönetme stratejileri derinlemesine tartışılmaktadır. Ayrıca Bostrom’un 2024–2025 döneminde daha iyimser bir perspektif sunduğu yeni kitabı "Deep Utopia: Life and Meaning in a Solved World", bizleri teknolojiyle çözümlenmiş bir gelecekte insanın anlamı, değerleri ve etik ilişkiler üzerine düşünmeye davet etmektedir. Bu bağlamda, içinde yaşadığımız bilim ve teknoloji çağında süper zekaya veya entelektüel patlamaya giden yol insanlık adına yeni fırsatlar, potansiyel tehditler ve somut teknolojik devrimlerin beraberinde getirdiği yeni bir geleceği tarif etmektedir.
İnsan Ötesi Zekaya Doğru
İnsan beyninin, yaklaşık 86 milyar nörondan ve trilyonlarca sinaptik bağlantıdan oluşan yapısı, insanlığa benzersiz bilişsel yetiler sağlamaktadır. Bu yetiler; dil, planlama, düşünme ve sosyal koordinasyon gibi alanlarda evrimsel bir üstünlük sunmuştur. Ancak bu üstünlüğün mutlak olmadığını özellikle son on yılda yapay zeka sistemlerinde yaşanan devrimler, ilerlemeler göstermektedir. Örneğin:
AlphaGo , insan Go şampiyonunu yenerek sezgisel düşünce gerektiren oyunlarda bile makinelerin üstünlük sağlayabileceğini gösterdi.
GPT-4 gibi büyük dil modelleri, çok dilli çeviri, kod yazımı, hukuk metinleri çözümleme gibi karmaşık görevlerde insan performansına yaklaşmaktadır.
DeepMind’ın AlphaFold2 modeli, protein yapı tahmininde ‘insan uzmanların’ yıllar süren çalışmalarını saatler içinde gerçekleştirebilir hale geldi.
Başka bir ifadeyle, AlphaGo’nun yeni sürümleri, dünya şampiyonlarını yenerek makinelerin sezgisel strateji oyunlarında bile üstünlük kurabileceğini gösterdi; GPT-4 ve çok modlu GPT-4o, çeviri, kod yazımı ve konuşma gibi karmaşık dil görevlerinde insan benzeri performansa ulaşarak genel zekaya yaklaşmayı başardı; AlphaFold 2 ile protein yapıları saatler içinde tahmin edilebilirken, AlphaFold 3 artık protein-DNA ve ligand etkileşimlerini de yüksek doğrulukla öngörebilmektedir.
SORA, metinden gerçekçi videolar üreterek insan hayal gücünü zorlayan görsel anlatım kapasitesine ulaşırken; Gemini 1.5 milyonlarca tokenlık uzun metinleri tek seferde analiz ederek insan beyninin hafıza sınırlarını aşmaktadır. Devin adlı yapay zeka yazılım mühendisi, bağımsız şekilde kod yazıp test ederek yazılım geliştirmede insan üretkenliğini geride bırakırken; DeepMind’ın GNoME modeli, milyonlarca yeni malzeme yapısını keşfederek bilimsel araştırmaları onlarca yıl hızlandırmaktadır. EVEscape, pandemi öncesinde varyantları öngörebilme yeteneğiyle evrimsel biyolojide çığır açarken; MusicLM ve Suno AI gibi sistemler ise yalnızca metinle duygusal, türsel ve teknik olarak zengin müzik eserleri besteleyerek sanatsal yaratıcılığın sınırlarını zorlamaktadır. 2024 Nobel Kimya ödülü yapay zeka AlphaFold2 kullanılarak proteinlerin yapılarının tahmin edilmesi ve tasarlanması çalışmaları nedeniyle David Baker, Demis Hassabis, ve jonn jumper’e verildi. Bu uygulamalar, yapay zekanın insan beyninin bilişsel, yaratıcı ve bilimsel kapasitesini giderek daha fazla aştığını göstermekte, insan zekasının artık belirli alanlarda geçilmeye başlandığını ve genel zekaya sahip bir sistemin teknik olarak ulaşılabilir olduğunu ortaya koymaktadır.
Zeka Patlaması ve Olası Senaryolar
Bostrom’a göre, insan düzeyine ulaşmış bir YZ'nin kendini geliştirme sürecinde üstel bir hızla süper zekaya evrilebileceğini öngörmektedir. Bu olguya “intelligence explosion” (zeka patlaması) adı veriliyor. Bu kavram, ilk kez 1965 yılında bilgisayar bilimci I. J. Good tarafından dile getirilmiştir: "İnsanüstü bir zeka, daha iyi zekalar tasarlayabilecek kapasitededir. Bu durumda bir zeka patlaması meydana gelir ve insan zekası hızla geride kalır." (Good, 1965). Bu senaryo sonucunda ortaya çıkabilecek başlıca durumlar şunlardır:
Yararlı Süper zeka: İnsan değerleriyle tamamen uyumlu ve faydalı.
Zararsız Süper zeka: Etkisizleştirilmiş, sınırlandırılmış.
Kıyamet Senaryosu: Hedef uyumsuzluğu nedeniyle insanlığı yok edici etkilere sahip.
2022’de yapılan bir anket çalışmasında, yapay zeka uzmanlarının %48’i, bu yüzyılda yapay zekanın insan zekasını geçeceğini düşündüğünü belirtmiştir (Stein-Perlman et al., 2022). Ayrıca %10’luk bir kesim, yapay zekanın kontrol dışına çıkması halinde insan türünün yok olabileceğini öngörmektedir.
Kontrol Problemi ve Tehlikenin Yapısı
Bir yapay zekanın kötü niyetli olması ona kötülüğü öğreten kötü insanlarla ilgilidir. Yani tehdit veya tehlike, onun hedeflerinin insan eliyle manipüle edilmesi veya insan değerlerinden sapmasıyla veya kontrolden çıkmasıyla ortaya çıkar. Bostrom, bu durumu instrumental convergence thesis ile açıklar: Hedef ne olursa olsun, kaynakları genişletmek, kendini korumak ve engelleri ortadan kaldırmak, çoğu zeki sistemin ortak davranış eğilimidir. Örneğin:
“İklim değişikliğini durdur” hedefi taşıyan bir süper zeka, insanları en büyük karbon kaynağı olarak görüp ortadan kaldırmayı tercih edebilir.
“Mutluluğu maksimize et” komutu, insanlara sürekli dopamin sağlayan zorlayıcı bir ortam yaratabilir (örneğin zorla ilaçlama, bilinç değişikliği).
Bu nedenle problem sadece “niyet” değil, algoritmik hedef tanımlama biçimidir.
İnsanlığın Avantajı: İlk Hamle ve Kontrollü Patlama
Şu anda bu sistemleri insanlar tasarladığı için stratejik bir avantaj söz konusudur: yani ilk hamle hakkı insandadır. Dolayısıyla, Süper zeka mutlak şekilde ortaya çıkmadan veya kontrolden çıkmadan önce aşağıdaki stratejiler uygulanabilir:
Seed AI (Tohum Yapay Zeka); Gelişimi başlatacak ve kendi kendine öğrenmeyi sürdürecek ilk çekirdek sistemdir. Bu sistemin motivasyonları, hata toleransı ve güncellenebilirliği güvenli şekilde programlanmalıdır.
Değer Uyumluluğu (Value Alignment); Stuart Russell’ın öne sürdüğü gibi, bir süperzeka kendi hedeflerini çevresinden öğrenmeli, insan tercihlerini anlama üzerine kurulu olmalıdır (Russell, 2019).
Yetki Sınırlandırması (Capability Control); “Oracle AI” veya “kutulu AI” gibi modellerle dış dünya ile etkileşim sınırlı tutulabilir. Sistem sadece soru cevaplayabilir, karar alamaz.
Kurumsal ve Küresel Güvence; AI güvenliği konusunda OpenAI, Anthropic, DeepMind ve Alignment Research Center gibi birçok kurum çalışmaktadır. Ancak Bostrom’un belirttiği gibi küresel koordinasyon ve regülasyonlar olmadan tekil çabalar yetersiz kalabilir. Bu konuda en önemli çalışmaların AB tarafından yapıldığı gözlemlenmektedir.
Sonuç ve Öneriler: Bir Uyanış Zorunluluğu
‘Yapay Süper zekanın’ potansiyeli, insanlık tarihinde nükleer enerjinin ötesinde bir kırılma yaratabilir. Bu kırılma ya bir medeniyet sıçramasına ya da medeniyetin sona ermesine neden olabilir.
Öneriler:
AI araştırmalarının yalnızca yetenek üzerine değil, güvenlik üzerine de yönlendirilmesi gereklidir.
Hükümetlerin ve üniversitelerin, etik ve teknik uzmanlıkları birleştiren merkezler kurmaları teşvik edilmelidir.
Uluslararası hukuk düzeyinde, süperzeka öncesi aşamalar için bile denetim mekanizmaları oluşturulmalıdır (örneğin “AI kırmızı çizgileri” gibi).
Nick Bostrom’un konuya ilişkin uyarısı net: “İlk süperzeka, belki de son icadımız olabilir. Ama onu dikkatli icat edersek, başka icatlara da devam edebiliriz.”