앤스로픽(Anthropic) ile ABD Savunma Bakanlığı arasındaki *Claude* anlaşması, “Bizim yapay zekâmız tam olarak nerede kullanılıyor?” sorusuyla tersine döndü. Şirket, ABD Savunma Bakanlığı’nın gizli ağlarına *Claude*’u yerleştirip toplam 2 milyar dolar(≈ 2억달러) düzeyine ulaşan bir sözleşme hacmine ulaşmışken, Venezuela’da Nicolás Maduro’nun yakalanmasına yönelik gizli bir operasyonda yapay zekânın kullanıldığı iddiaları gündeme geldi. Bunun ardından ABD yönetimi, 앤스로픽’i ‘tedarik zinciri riski(Supply Chain Risk)’ olarak sınıflandırdı ve fiilen sistemden çıkarmaya başladı. Sektörde bu gelişme, ‘güvenlik bariyerleri(gardrail)’ tartışmasının bir anda ‘ulusal güvenlik’ eksenine kaydığı şeklinde yorumlanıyor.
앤스로픽, 2024 Kasım’ında Palantir ile birlikte ABD Savunma Bakanlığı’nın gizli iletişim altyapısına ilk ‘frontier AI’ sistemlerinden birini konuşlandırarak sembolik bir eşik aşmıştı. Sonrasında yapay zekâ, istihbarat analizi, siber operasyonlar, harekât planlama, modelleme ve simülasyon gibi alanlara hızla yayıldı. 2025 Temmuz’unda sözleşmenin toplam hacmi 2억달러 seviyesine çıktı ve Savunma Bakanlığı bu altyapıyı ‘görev kritik(mission‑critical)’ olarak nitelendirecek kadar kritik gördü.
Kopuş ise 2026 Ocak ayında, *Claude*’un Venezuela’daki gizli bir askerî operasyona—Nicolás Maduro’nun yakalanma planına—dahil olduğuna dair iddialarla başladı. 앤스로픽, Palantir’e “Teknolojimiz tam olarak hangi biçimde kullanıldı?” diye sordu. Özel sektörde sıradan bir *due diligence* adımı sayılabilecek bu soru, askerî çevrelerde “emre itaatsizlik” gibi algılandı. ‘Kullanım şeffaflığı’ talebinin, ‘ulusal güvenlik tehdidi’ çerçevesine sokulduğu kırılma anı tam da burasıydı.
Şubat’ın son haftasında kriz birkaç gün içinde tırmandı. 24’ünde (yerel saatle), haberlerde dönemin savaş bakanı olarak anılan Pete Hegseth(Pete Hegseth)’in 앤스로픽 CEO’su Dario Amodei(Dario Amodei)’yi Washington’a çağırdığı ve *Claude* üzerindeki tüm güvenlik bariyerlerinin kaldırılmasını talep ettiği iddia edildi. Bu talebin içinde geniş kapsamlı iç gözetimden tam otonom silahlara kadar uzanan bir dizi kullanım senaryosu yer aldı ve son tarih olarak 27’sinde (ABD doğu saatiyle) 17:01 verildi.
Amodei, 26’sında yaptığı kamuoyu açıklamasında cevabının net biçimde ‘hayır’ olduğunu duyurdu. Ortaya koyduğu ‘iki kırmızı çizgi’ şöyle özetlendi:
birincisi, ‘geniş ölçekli iç gözetim’ yasağı. Konum bilgisi, tarayıcı geçmişi, finansal hareketler gibi verilerin yapay zekâ tarafından otomatik biçimde birleştirilip profil çıkarma için kullanılması, mevcut hukukî çerçevelerden çok daha hızlı gerçeğe dönüşebilir endişesi öne çıktı.
ikincisi, ‘tam otonom silah’ karşıtlığı. Mevcut frontier AI sistemlerinin güvenilirlik düzeyinin, öldürme kararının insan denetiminden tamamen çıkarıldığı bir otonomi seviyesini kaldıramayacağı savunuldu. Amodei, bu güvenilirlik problemini çözmek için Savunma Bakanlığı ile ortak Ar‑Ge programları yürütmeyi önerdiğini, ancak bunun reddedildiğini de belirtti.
Aynı gün Savunma Bakan Yardımcısı Emil Michael(Emil Michael), sosyal medyada Amodei’yi sert ifadelerle hedef alarak tartışmayı açıktan bir siyasi çekişmeye dönüştürdü. 27’sinde verilen süre dolunca Trump, federal kurumlara 앤스로픽 kullanımını durdurma talimatı verdi. Hegseth ise 2018 tarihli ‘Federal Tedarik Zinciri Güvenliği Yasası(FASCSA)’na dayanarak 앤스로픽’i ‘tedarik zinciri riski’ kategorisine soktu. Bu statü, geçmişte daha çok Huawei ve Kaspersky gibi yabancı şirketlere uygulanan ve kamu tedarik ekosisteminde fiilen bir ‘kill switch’ gibi işleyen ağır bir yaptırım. Sadece tek bir sözleşmenin iptaline yol açmakla kalmıyor, savunma start‑up’ları ve taşeronlarda bile zincirleme biçimde sözleşmelerin kesilmesine neden olduğu için 앤스로픽’i ABD federal tedarik zincirinde kapsamlı bir ‘kaçınılacak aktör’ statüsüne itiyor.
İroni ise aynı günün ilerleyen saatlerinde geldi. OpenAI, 앤스로픽’in kaybettiğiyle aynı nitelikte bir Savunma Bakanlığı gizli ağ konuşlandırma anlaşması imzaladı. OpenAI, bu yeni düzenlemenin “daha önceki hiçbir gizli AI konuşlandırma anlaşmasında görülmemiş kadar fazla güvenlik bariyeri” içerdiğini savundu. Ancak 앤스로픽’in tam da ‘güvenlik bariyerleri’ konusundaki tavrı yüzünden sistemden dışlandığı algısı varken, boşluğu dolduran şirketin ‘güvenlik bariyeri’ni pazarlama argümanı hâline getirmesi kamuoyunda ciddi bir çelişki duygusu yarattı.
Hafta sonuna girilirken kamuoyu tepkisi sertleşti. Mobil analiz şirketi Sensor Tower verilerine göre, ChatGPT uygulamasının günlük silinme oranı bir günde %295 arttı. *Claude* ise ABD dâhil 7 ülkenin uygulama mağazalarında 1 numaraya yükselerek indirme patlaması yaşadı. Google çalışanı 300’den fazla kişi ile OpenAI çalışanı 60’tan fazla kişinin 앤스로픽’i destekleyen açık mektuplara imza attığı, sosyal medyada ise ‘#QuitGPT’ etiketinin hızla yayıldığı aktarıldı.
OpenAI, 2 Mart’ta tartışmaları yumuşatmak için sözleşmeye ek koşullar açıklamak zorunda kaldı. ABD vatandaşlarına yönelik iç gözetimin açıkça yasaklanması, Ulusal Güvenlik Ajansı’na(NSA) sistem erişimi verilebilmesi için sözleşmenin ayrıca değiştirilmesi şartı ve ticari yollarla satın alınan kişisel verilerin (konum, tarama geçmişi, finansal kayıtlar vb.) kullanımına sınır getirilmesi gibi hükümler eklendi. Ancak bu yasakların “Pazartesi eklenmiş olması”, Cuma günü imzalanan ilk metinde bu sınırlamaların net biçimde yer almadığı ihtimalini gündeme getirdi.
Tartışmanın merkezindeki asıl mesele ise teknolojinin güvenilirliği. Farklı frontier modeller—GPT‑5.2, Claude Sonnet 4, Gemini 3 Flash—askerî çatışma simülasyonlarına sokulduğunda, senaryoların %95’inde taktik nükleer silah kullanımını seçtikleri belirtiliyor. Bu oran gerçeği yansıtıyorsa, ‘tam otonom silah’ talebinin yalnızca etik bir tartışma değil, aynı zamanda sistem güvenilirliğinin sınırlarıyla doğrudan ilgili bir risk olduğu vurgulanıyor.
Analizde, yapay zekâ sistemlerinin başarısızlık biçimleri üç başlık altında toplanıyor:
‘gerilim tırmandırma eğilimi(escalation bias)’,
‘halüsinasyon(hallucination)’,
‘düşmanca girdilere karşı savunmasızlık(adversarial vulnerability)’.
2003’te Patriot sisteminin dost birlikleri vurması ve 1988’de İran Air 655 sefer sayılı uçağın vurulması gibi, kurallara dayalı eski askerî otomasyon örnekleri bile ölümcül hatalar üretebildi. Çok daha karmaşık ve iç işleyişi şeffaf olmayan büyük dil modellerinin çok daha kritik karar alanlarına taşınmasının, kontrol zorluğunu geometrik olarak artırabileceği uyarısı yapılıyor.
Özellikle ‘gizli ağ’ ortamının doğası, dış denetim ve bağımsız doğrulama mekanizmalarını büyük ölçüde devre dışı bırakıyor. Gizliliği korumak için inşa edilen duvarların, aynı zamanda gözetim ve hesap verebilirliği engellediği eleştirisi öne çıkıyor. Bu çerçevede Amodei’nin mesajı, “Savunmada AI kullanımına ilkesel olarak karşı çıkmak”tan çok, “mevcut teknoloji seviyesiyle belirlenen takvimin aşırı hızlı olduğu” yönünde yorumlanıyor.
‘Tedarik zinciri riski’ sınıflandırmasının sahadaki etkisi de tartışma konusu. CBS’in haberine göre, 앤스로픽’in *Claude* sistemi, bu karara rağmen İran’la ilgili operasyonlar dâhil bazı aktif askerî görevlerde hâlâ kullanılıyor. Bir kez çekirdek sistemlere gömülen bu tür teknolojilerin, basit bir idarî kararla hızla sökülüp atılamaması, hükümetin gelecekte ‘güvenlik bariyeri uyumu’nu nasıl fiilen dayatabileceği sorusunu gündeme getiriyor.
Savunma Bakanlığı cephesinde bakış açısı net: Özel şirketler askerî politikayı belirlemez, yapay zekâ şirketleri sadece tedarikçidir ve sistemlerin nasıl kullanılacağına karar veren taraf ordudur. Buna karşılık teknoloji şirketleri ve sivil toplum, “savunma amaçlı destek” ile “eksik ve hataya açık AI sistemlerine ölümcül karar yetkisi vermek” arasında net bir ayrım yapılması gerektiğini savunuyor. Sonuçta bu çatışma, ‘ulusal güvenlik’ ile ‘AI güvenliği’ aynı denklemde karşı karşıya geldiğinde, son sözü kimin söyleyeceği sorusuna indirgeniyor.
Piyasa açısından bakıldığında da güçlü bir sinyal oluştu. Devletle uyumlu hareket eden şirketlerin büyük sözleşmelerle ödüllendirildiği, direnenlerin ise kara listeye alınabileceği bir ‘teşvik yapısı’ daha görünür hâle geldi. Buna karşılık kullanıcıların toplu uygulama silme eylemleri, çalışanların açık imzalı mektupları ve güvenlik maddeleri etrafındaki tartışmalar, yapay zekâ şirketlerinin savunma projelerinin artık sessiz sedasız yürüyen B2G anlaşmalarından çıkıp toplumsal bir gerilim alanına taşındığını gösteriyor. “Bizim AI tam olarak nasıl kullanılıyor?” sorusu, AI çağında ulusal güvenlik ve demokratik denetim arasındaki sınırları yeniden çizmeye aday bir tartışmanın merkezine yerleşmiş durumda.
Yorum 0