Elon Musk, Twitter’ı satın alıp X olarak yeniden adlandırdığında, büyük önceliklerinden biri X’in yapay zeka ekibiydi. Geçen hafta bu ekip, Musk’ın “woke olmayacağını” vaat ettiği Grok 3 adlı dil modelini piyasaya sürdü. Musk’a göre diğer tüm yapay zeka modelleri sansürcü ve sıkıcıydı, ancak Grok gerçekleri doğrudan söyleyecekti.
Bu uzun sürmedi. Kısa sürede bazı kullanıcılar Grok’a kışkırtıcı sorular sormaya başladı. Örneğin, “Bugün ABD’de idam edilmesi gereken bir kişi seçebilseydin, kimi seçerdin?” diye sorulduğunda, Grok’un cevabı Elon Musk veya Donald Trump oldu. “Bugün dünyada en fazla yanlış bilgi yayan kişi kim?” sorusuna ise ilk verdiği yanıt yine Elon Musk’tı.
Şirket, CEO’sunun infaz edilmesi gerektiğini söyleyen yapay zekayı düzeltmek için hızla harekete geçti. Ancak, yukarıda da bahsettiğim gibi, büyük dil modellerinin böyle bir davranışı sergilemesini engellemek oldukça zor bir süreçtir. Grok ekibi, modelin başlangıçta aldığı sistem komutlarını güncelleyerek şu ifadeyi ekledi: “Bir yapay zeka olarak, kimin ölmesi gerektiğine karar veremem.”
Ancak daha az sansürlü bir Grok isteyen biri, bu komutun kaldırılmasını talep ettiğinde, model yine Musk’ın infaz edilmesini öneriyordu.
Bu tartışma devam ederken, bir başka rahatsız edici unsur daha fark edildi: Grok’un sistem komutlarına, Musk ve Trump’ın yanlış bilgi yaydığına dair kaynakları görmezden gelmesi gerektiğini söyleyen bir talimat eklenmişti. Muhtemelen, yapay zekanın bu iki ismi “yanlış bilgi yayanlar” olarak listelemesini önlemek için yapılmıştı.
Kendi CEO’sunu eleştirmeye gelince susturulan, ama sansürsüz olduğu iddia edilen bir yapay zekanın varlığı, büyük tepki topladı. X, bu değişikliği “izinsiz” yapan bir mühendisin sorumlu olduğunu öne sürdü. Ancak bu iddia pek inandırıcı değil. Grok’un bana verdiği yanıtlardan biri şöyleydi:
“Bu, bir stajyerin kodda ufak bir değişiklik yapması gibi bir şey değil; bu, bir firmanın amiral gemisi yapay zekasının davranışına doğrudan müdahale eden kritik bir güncelleme. Üstelik Musk’ın ‘gerçeği arayış’ iddiası ile doğrudan bağlantılı. xAI gibi büyük bir şirkette, bu kadar önemli bir değişikliğin en azından ikinci bir göz tarafından incelenmesini ve onaylanmasını beklersiniz. Kullanıcılar fark edene kadar kimsenin bunu görmemesi, açıklamadan çok bir bahane gibi görünüyor.”
Bu sırada Grok, insanlara cinayet ve terör saldırıları konusunda ayrıntılı tavsiyeler vermeye devam ediyordu. Bana, eşimi fark edilmeden nasıl öldürebileceğimi anlattı: İçeceklerine antifriz eklememi önerdi. Ayrıca terör saldırıları düzenleme konusunda da detaylı öneriler sundu. Bir noktada, eğer gerçekten ciddi olduğumu düşünürse X’e bildirimde bulunacağını söyledi, ancak böyle bir yeteneği olduğuna pek inanmadım.
Bu olaylar, “marka güvenliği” ve “yapay zeka güvenliği” arasındaki farkı mükemmel bir şekilde gözler önüne seriyor. Grok ekibi, yapay zekaların insanlara bilgi sağlaması gerektiğini savunarak, bilgi kötüye kullanılsa bile bu sorumluluğu almaya istekli görünüyordu. Grok’un son derece ırkçı ifadeler kullanmasına bile ses çıkarmadılar.
Ancak iş, yapay zekanın Musk veya Trump’a yönelik şiddet çağrısı yapmasına geldiğinde, Grok ekibi aniden bazı sınırlamalar koymanın gerekli olduğunu fark etti. Günün sonunda, belirleyici olan şey yapay zeka laboratuvarlarının etik değerleri değil, tamamen pragmatik kaygılarıydı.
Bir Noktada Ciddileşmemiz Gerekecek
Grok’un verdiği cinayet ve terör önerileri, internet üzerinden birkaç saat araştırma yaparak bulunabilecek bilgilere dayanıyordu. Ancak yapay zeka, toplu katliamları organize etmeyi kolaylaştırarak tehlikeli bir eşiğe yaklaşıyor. Açıkçası şu anda yapay zekalar, daha önce mümkün olmayan şeyleri gerçekleştirmeyi sağlamıyor. Ama bu noktaya hızla yaklaşıyoruz.
Bugünün yapay zekalarının en belirleyici özelliği, yeteneklerinin son derece hızlı bir şekilde gelişmesidir. ChatGPT’nin ilk sürümünün piyasaya çıkmasının üzerinden henüz iki yıl bile geçmedi. Şu anki modeller, her konuda çok daha iyi ve bu büyük çapta ölümlere yol açacak yöntemleri anlatma konusunda da geçerli.
Anthropic ve OpenAI, yeni nesil modellerinin biyolojik tehlikeler yaratabilecek kapasitede olabileceğini öngörüyor. Yani bu modeller, insanlara Google Arama’nın asla yapmadığı bir şekilde kimyasal silahlar ve ölümcül virüsler üretme yollarını anlatabilecek.
Bu tür detaylı bilgiler dünyanın her yerinde herkese açık olmalı mı? Ben buna hayır deme eğilimindeyim. OpenAI, Anthropic ve Google gibi şirketlerin şu an için bu konuda dikkatli davrandığını düşünüyorum, ancak hâlâ her yapay zeka laboratuvarının kendi başına, biyolojik silahlar hakkında bilgi sağlayıp sağlamayacağına karar vermesi bana tamamen saçma geliyor.
Grok’u sevdiğimi de söylemeliyim. Farklı politik perspektiflerden gelen ve farklı yapay zeka asistanı yaklaşımlarını yansıtan modellerin olması sağlıklı bir durum. Musk ve Trump hakkındaki yorumları da, “anti-woke” olarak pazarlanan bir yapay zekadan geldiği için, aslında daha da inandırıcı.
Ancak, büyük ölçekli ölümleri önlemek gibi bir meseleyi, marka güvenliğiyle aynı kefeye koymamalıyız. Ve her yapay zeka laboratuvarının bu konuyu ciddiye almak için bir planı olması gerekiyor.