ABD ve Çin yapay zekanın nükleer savaş çıkarmaması konusunda anlaştı

2024’ün sonlarında Çin Devlet Başkanı Xi Jinping ve ABD Başkanı Joe Biden, yapay zekanın (AI) asla bir nükleer savaş başlatmaya yetkilendirilmemesi gerektiği konusunda anlaştı. Bu önemli politika kararı, Brookings Enstitüsü ve Tsinghua Üniversitesi’nin Uluslararası Güvenlik ve Strateji Merkezi tarafından düzenlenen ABD-Çin Yapay Zeka ve Ulusal Güvenlik Diyaloğu çerçevesinde beş yıl süren müzakerelerin ardından ortaya çıktı.

Soğuk Savaş dönemindeki ABD-Sovyet rekabetine dair birkaç vaka incelendiğinde, eğer o dönemde yapay zeka olsaydı ve nükleer silahların fırlatılması ya da olası bir nükleer saldırıyı önleme kararını vermesi için ona güvenilseydi, sonuçların felaketle sonuçlanabilecek hatalara yol açabileceği görülebilir. Dönemin mevcut askeri doktrinleri ve prosedürleri göz önüne alındığında, yapay zeka sistemleri bu bilgilerle “eğitilseydi”, yanlış kararlar alarak nükleer silahları ateşleme kararı verebilirdi.

Neyse ki, inceleyeceğimiz örneklerde—1962 Küba füze krizi, Eylül 1983 yanlış alarm krizi ve Ekim 1983 Able Archer tatbikatıkararları veren insanlar, o günün askeri doktrinlerinden ve yaygın kabullerinden daha sağduyulu ve bilinçli davrandılar. Bu tür durumlarda insanların her zaman temkinli ve sağduyulu hareket edeceğini varsaymak doğru olmasa da, iyi eğitilmiş yapay zeka sistemlerinin de insanlara destek sağlayabileceği düşünülebilir. Ancak bu olaylar, insanlığın karşılaştığı en büyük krizlerden birinde insanların gösterdiği sezgi ve empati seviyesinin makineler tarafından sağlanamayabileceğini gösteriyor.

Nükleer Felakete Yaklaşan Üç Olay

1. 1962 Küba Füze Krizi

ABD istihbaratı, Sovyetler Birliği’nin 1962 boyunca Küba’ya nükleer başlık taşıyabilecek füzeler ve taktik nükleer silahlar göndermeye başladığını tespit etti. Bu, Sovyetler’in ABD karşısındaki nükleer dengeyi değiştirme çabasıydı.

ABD Başkanı John F. Kennedy’nin danışmanları—Genelkurmay Başkanları dahil—nükleer tehditleri ortadan kaldırmak için Küba’daki Sovyet mevzilerine hava saldırıları düzenlenmesini tavsiye etti. Ancak böyle bir saldırı, yakınlardaki Sovyet denizaltılarının nükleer torpidolarıyla ABD savaş gemilerine saldırmasına veya Küba’daki Sovyet birliklerinin Guantanamo Körfezi’ndeki ABD üssüne saldırmasına neden olabilirdi.

Kennedy, Küba’yı denizden abluka altına almak ve Sovyet lideri Nikita Kruşçev ile arka kapı diplomasisi yürütmek gibi daha temkinli bir strateji izledi. ABD, Türkiye’deki füzelerini çekmeyi ve Küba’ya asla saldırmamayı teklif etti. Sonunda Sovyetler, Küba’daki nükleer füzelerini geri çekmeyi kabul etti ve kriz sona erdi.

Eğer bu karar bir yapay zeka sistemine bırakılmış olsaydı, dönemin politik ve askeri doktrinlerine dayalı bir analiz, hava saldırısı seçeneğini daha makul gösterebilir ve nükleer bir felaketi tetikleyebilirdi.

2. Eylül 1983 Yanlış Alarm Krizi

Sovyet askeri görevlisi Stanislav Petrov, Sovyet radar sistemlerinin ABD’den gelen beş kıtalararası balistik füze (ICBM) tespit ettiğini bildirdiğini gördü. Sensörler aslında sıradışı bulut oluşumlarının güneş ışığını yansıtmasını yanlış yorumlamıştı.

Petrov, ABD’nin eğer gerçekten saldırıya geçseydi, yalnızca beş füze göndermeyeceğini ve çok daha büyük bir saldırı düzenleyeceğini düşündü. Eğer dönemin askeri doktrinlerine sıkı sıkıya bağlı kalınsaydı, yapay zeka destekli bir sistem bu “tehdit” karşısında anında misilleme yapılmasını önererek nükleer savaşı tetikleyebilirdi.

Ancak Petrov, protokol yerine sezgilerini ve sağduyusunu kullanarak durumu tırmandırmamayı seçti. Sonradan olayın bir yanlış alarm olduğu ortaya çıktı ve dünya büyük bir felaketten kıl payı kurtuldu.

3. Ekim 1983 Able Archer Tatbikatı

NATO, 1983’te Sovyetler Birliği ile oldukça gergin bir dönemde Able Archer isimli büyük çaplı bir askeri tatbikat gerçekleştirdi.

  • Aynı yılın Mart ayında ABD Başkanı Ronald Reagan, Sovyetler Birliği’ni “şer imparatorluğu” olarak nitelendirmiş ve “Yıldız Savaşları” (Star Wars) adlı stratejik savunma girişimini duyurmuştu.
  • Eylül ayında Sovyetler, yanlışlıkla hava sahasına giren Kore Hava Yolları’na ait bir yolcu uçağını düşürmüş, 269 kişi hayatını kaybetmişti.
  • ABD, Avrupa’ya Sovyetler’e karşı kullanılabilecek nükleer kapasiteli Pershing II füzeleri konuşlandırıyordu.

Bu olaylar, Sovyet liderlerinin NATO’nun tatbikatı gerçek bir nükleer saldırının bahanesi olarak kullanabileceğinden korkmasına neden oldu. NATO tatbikat sırasında nükleer silah taşıyabilecek uçaklara sahte savaş başlıkları yükledi. Ancak Sovyet istihbaratı, bunların gerçek olup olmadığını anlayamadı ve karşılık olarak kendi nükleer kuvvetlerini alarm durumuna geçirdi.

ABD Hava Kuvvetleri Generali Leonard Perroots, Sovyetlerin verdiği tepkiyi fark ederek ABD’nin karşılık olarak kendi nükleer silahlarını hazırlamaması gerektiğini tavsiye etti.

Eğer bu karar bir yapay zeka sistemine bırakılmış olsaydı, tatbikatı bir saldırı hazırlığı olarak algılayabilir ve karşılık olarak ABD’nin de kendi silahlarını hazır hale getirmesini önererek krizi daha da tırmandırabilirdi.

Yapay Zeka Daha İyi Bir Karar Verir miydi?

Bu üç olayda eğer karar yapay zekaya bırakılmış olsaydı, büyük olasılıkla nükleer savaş başlatılmış olabilirdi.

Her ne kadar iyi tasarlanmış bir yapay zeka bazen insanlardan daha temkinli kararlar verebilse de, bu örnekler bir makinenin insan sezgisi ve sağduyusunun yerini alamayacağını gösteriyor.

Bu yüzden Xi Jinping ve Joe Biden’ın aldığı karar doğruydu ve gelecekteki liderler de bu prensibe bağlı kalmalı. Yapay zeka, karar alma süreçlerinde destekleyici bir rol oynayabilir, ancak insanlığın kaderini belirleyecek en kritik kararları vermemelidir.