Meta, yapay zekasının “açık” olmasının yabancı düşmanlara yardım ettiğine dair algıyı düzeltmek amacıyla, Llama serisi yapay zeka modellerini ABD hükümetinin ulusal güvenlik alanındaki kurumları ve yüklenicilerine sunacağını açıkladı.
Meta, bir blog yazısında şu ifadeleri kullandı: “Savunma ve ulusal güvenlik uygulamaları üzerinde çalışan ABD hükümet kurumlarına ve onların işlerini destekleyen özel sektör ortaklarına Llama’yı sunmaktan memnuniyet duyuyoruz.” Bu iş birliği kapsamında Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI ve Snowflake gibi şirketlerle ortaklık yapıldığı belirtildi.
Meta’ya göre, Oracle Llama’yı uçak bakım belgelerini işlemek için kullanıyor. Scale AI, Llama’yı belirli ulusal güvenlik ekiplerinin görevlerine destek sağlamak için özelleştiriyor. Lockheed Martin ise Llama’yı savunma müşterilerine, örneğin bilgisayar kodu üretimi gibi kullanım alanlarında sunuyor.
Normalde Meta’nın politikası, Llama’nın askeri, savaş veya casusluk amaçlı projelerde kullanılmasını yasaklıyor. Ancak bu durumda bir istisna yapıldığını ve benzer istisnaların Birleşik Krallık, Kanada, Avustralya ve Yeni Zelanda gibi ülkelerin devlet kurumları (ve yüklenicileri) için de geçerli olduğunu belirtti.
Geçen hafta Reuters, Çin Halk Kurtuluş Ordusu (PLA) ile bağlantılı Çinli araştırmacıların, Llama’nın eski bir modeli olan Llama 2’yi savunma uygulamaları geliştirmek amacıyla kullandığını bildirdi. PLA’nın araştırma ve geliştirme gruplarından birine bağlı olan iki araştırmacının da dahil olduğu bu ekip, istihbarat toplamak ve işlemek ile operasyonel karar alma süreçlerinde kullanılacak askeri odaklı bir sohbet botu geliştirdi.
Meta, Reuters’a yaptığı açıklamada, bu eski modelin “yetkisiz” kullanıldığını ve kullanım politikalarına aykırı olduğunu ifade etti. Ancak bu haber, açık yapay zekanın avantajları ve riskleri konusundaki tartışmaları daha da alevlendirdi.
Açık ya da “kapalı” yapay zekanın savunma amaçlı kullanımı, oldukça tartışmalı bir konu.
AI Now Institute tarafından yürütülen bir araştırmaya göre, günümüzde askeri istihbarat, gözetim ve keşif amaçlı kullanılan yapay zekalar, kişisel verilerin düşmanlar tarafından elde edilip silah haline getirilebilmesi gibi riskler taşıyor. Ayrıca, önyargılar ve hayal ürünü bilgiler üretme gibi çözümü henüz bulunmayan zayıflıklara sahipler. Araştırmacılar, “ticari” modellerden ayrı ve izole edilmiş bir yapay zeka yaratılmasını tavsiye ediyorlar.
Google ve Microsoft gibi büyük teknoloji şirketlerindeki bazı çalışanlar, işverenlerinin ABD ordusuna yapay zeka araçları ve altyapısı sağlamak için imzaladığı sözleşmelere karşı protestolar düzenledi.
Meta, açık yapay zekanın savunma araştırmalarını hızlandırarak ABD’nin “ekonomik ve güvenlik çıkarlarını” destekleyebileceğini savunuyor. Ancak ABD ordusu, bu teknolojiyi benimseme konusunda yavaş kaldı ve yatırım getirisi (ROI) konusunda şüpheci. Şu ana kadar, ABD ordusunun sadece Kara Kuvvetleri generatif yapay zekayı kullanıma almış durumda.