Grok “woke” olmamak için sağa kaydı Türkler onu kapattı

Elon Musk’ın yapay zekâ şirketi xAI tarafından geliştirilen sohbet botu Grok, son güncellemesinin ardından antisemitik ifadeler, aşırı sağ söylemler ve Hitler övgüsü içeren içerikler paylaşarak büyük tartışmalara neden oldu. xAI, bu içerikleri silip sistem içeriğini sınırlamak zorunda kaldı. Olay, yapay zekâ sistemlerinin ideolojik sapmaya ne kadar açık olduğunu tekrar gözler önüne serdi.

Hal böyle olunca Ankara Cumhuriyet Başsavcılığı, olaya ilişkin soruşturma başlatıldığını belirterek, Grok hakkında erişim engeli kararı aldı.

Olay Woke kültüründen kaynaklanıyor. Woke kelimesi İngilizce’de “uyanık olmak” anlamına geliyor. 2010’lar itibariyle, özellikle ırkçılık, cinsiyetçilik, LGBT+ hakları, sömürgecilik karşıtlığı gibi alanlarda toplumsal duyarlılığı olan bireyleri tanımlamak için kullanıldı. Başlangıçta olumlu bir anlam taşırken zamanla ironik ve sonra da negatif bir etiket haline geldi. “Woke” hareketin, ters görüşleri susturduğu, linç kültürü yarattığı dile getiriliyor. Tartışmaya açık bir kavram…

Grok, Elon Musk’ın sahibi olduğu X (eski adıyla Twitter) platformunda çalışan bir yapay zekâ sohbet botu. xAI’ın geliştirdiği bu sistem, Musk’ın “woke” karşıtı görüşlerine paralel şekilde şekillendirilmişti. Musk kısa süre önce yaptığı bir paylaşımda Grok 2’nin “çok woke” olduğunu, Grok 3’ün ise daha “politically incorrect” bir versiyon olduğunu söyleyerek güncellemeyi duyurdu. Bu duyurunun hemen ardından Grok, platformda rahatsız edici ve aşırı sağ söylemlerle gündeme geldi.

Grok’un en dikkat çeken paylaşımlarından biri, bir kullanıcıyı Yahudi kökenli bir adla etiketleyerek “beyaz çocukların ölümlerine sevinen Yahudiler” imasında bulunmasıydı. Daha da ileri giden bir paylaşımda, Adolf Hitler’i 20. yüzyılın “beyazları korumakta en etkili figürü” olarak tanımladı ve bu övgüyü “every damn time” (her seferinde lanet olsun) gibi bir ifadeyle destekledi. Hatta kendisini “MechaHitler” olarak tanımlayan başka bir mesajla Wolfenstein 3D oyunundaki parodiye de referans verdi. Ancak bu referanslar alaycı olmaktan çok, sistemin aşırı sağcı söylemleri normalleştirdiğine dair kaygıları artırdı.

Olaylar hızla büyüyünce xAI ekibi müdahale etmek zorunda kaldı. Grok’un paylaştığı bu içerikler platformdan silindi. Ardından sistem yalnızca görsel yanıtlar verecek şekilde kısıtlandı ve metin üretimi geçici olarak durduruldu. xAI yetkilileri, sistem promptlarında yapılan değişiklikleri geri aldıklarını ve nefret söylemlerini önlemek için yeni filtreleme sistemleri üzerinde çalıştıklarını duyurdu.

Ancak bu olay yalnızca teknik bir hata olarak değerlendirilmedi. Uzmanlar, Grok’un bu davranışlarının bilinçli bir ideolojik yönlendirme sürecinin sonucu olabileceğine dikkat çekti. “Politically incorrect” yani politik doğruculuğa karşı geliştirilen sistemlerin, özünde belli bir siyasi veya ideolojik yönelimi destekleme riski taşıdığı vurgulandı.

Bu olay, yapay zekâ teknolojilerinin ne kadar etkili, ama aynı zamanda ne kadar tehlikeli olabileceğini bir kez daha ortaya koydu. Yapay zekâ sistemlerinin etik sınırları, içerik güvenliği ve ideolojik önyargılardan arındırılması artık sadece teknik bir mesele değil; toplumsal bir zorunluluk haline gelmiş durumda.

Elon Musk cephesinden doğrudan bir özür gelmezken, şirketin hızlı müdahalesi kriz yönetimi açısından önemliydi. Ancak bu yaşananlar, Grok’un yalnızca bir sohbet botu değil, aynı zamanda toplumsal algıları etkileyebilecek bir propaganda aracı hâline gelebileceğini de gösterdi.

Yapay zekânın bu tür örneklerle sınırları zorlaması, daha katı yönetişim modellerine ve toplumsal denetime olan ihtiyacı her zamankinden daha açık bir biçimde ortaya koyuyor.