ABD Savunma Bakanlığı(Pentagon) ile üretken yapay zeka girişimi Anthropic arasında yürütülen görüşmeler, ‘büyük ölçekli gözetim’ endişeleri nedeniyle tamamen rafa kalktı. Bu gelişme, *ulusal güvenlik* alanında *frontier AI* teknolojilerinin hangi sınırlara kadar kullanılabileceği tartışmasını yeniden alevlendirdi. ABD’nin askeri ve istihbarat altyapısında *yapay zeka* zaten derin şekilde devreye girmişken, teknoloji verimliliği ile etik standartlar arasındaki gerilim, devletin *AI tedarik* süreçlerinde yeni bir değişken haline geliyor.
Teknoloji ve medya yazarı, aynı zamanda girişim sermayesi fonu GV’nin (eski Google Ventures) eski ortağı olan M.G. Siegler(M.G. Siegler), “Anthropic’in Pentagon anlaşmasının çökmesinin temel nedeni, şirket içinde *‘mass surveillance’ (büyük ölçekli gözetim)* riskine dönük kaygıların ağır basması” olduğunu aktardı. Siegler’e göre Anthropic yönetimi, Savunma Bakanlığı’nın Amerikan vatandaşlarına ait çok geniş veri setlerini analiz etmek için *AI* kullanmak istediğini gördü ve bunu ‘aşılmaması gereken bir kırmızı çizgi’ olarak değerlendirdi. Bu nedenle şirket masadan kalkmayı tercih etti.
Burada mesele yalnızca iptal edilen bir kamu sözleşmesinden ibaret değil. Devlet kurumlarının kullanmak istediği veriler kağıt üzerinde *“açık veri tabanları”* gibi görünse bile, bunlar *yapay zeka* ile birleştirildiğinde analiz hızı ve doğruluğu dramatik biçimde artabiliyor. Bu da dışarıdan bakıldığında fiili bir ‘gözetim sistemi’ izlenimi yaratabiliyor. Şirket tarafında ise *sorumlu yapay zeka* ilkelerini kamuya açık şekilde savunurken, aynı anda agresif bir *savunma sanayi* sözleşmesine imza atmak önemli bir *itibar riski* doğurabilir. yorum: Büyük savunma kontratları artık sadece gelir değil, aynı zamanda marka algısı ve toplumsal tepki riski anlamına geliyor.
M.G. Siegler, Pentagon’un *AI tedarikçileri* ile yürüttüğü görüşmelere sıkı zaman kısıtları koymasının ardında, doğrudan *askeri hazırlık* motivasyonunun bulunduğunu savunuyor. Siegler, Savunma Bakanlığı üst düzey yetkililerinin “*savaşa yönelik geniş çaplı hazırlık*” sürecinin ortasında bu anlaşmaları hızlandırdığına dikkat çekiyor ve *yapay zeka entegrasyonu*nun artık yalnızca bürokratik verimlilik aracı değil, doğrudan *askeri kapasiteyi artıran* bir unsur olarak görüldüğünü vurguluyor.
Bu çerçevede *AI*, istihbarat analizinden harekât planlamasına kadar geniş bir alanda ‘*force multiplier*’ yani *kuvvet çarpanı* olarak konumlandırılıyor. Dolayısıyla etik tartışmalar yüzünden her gecikme, Pentagon açısından *hazırlık takviminde* bir belirsizlik unsuru haline geliyor. Bu da Savunma Bakanlığı’nı, benzer projeleri daha hızlı ilerletmek için daha agresif davranmaya itebilir.
Dışarıya yansıyan tablo ‘anlaşma iptali’ olsa da Siegler, Anthropic’in *yapay zeka araçlarının* ABD askeri operasyonlarına şimdiden sanılandan çok daha derin şekilde entegre olduğunu öne sürüyor. Siegler’in iddiasına göre Anthropic modelleri; *istihbarat değerlendirme*, *hedef tespiti* ve *muharebe senaryosu simülasyonu* gibi kritik alanlarda halihazırda kullanılıyor.
Buradaki kilit kavram ‘*ikame edilebilirlik*’. Tek bir *frontier model* yalnızca sohbet botu gibi sınırlı bir kullanımda test edilmiyor; aksine farklı *savunma yüklenicileri* ve bulut sağlayıcıları üzerinden bir *tedarik zinciri* mantığıyla sisteme yayılıyor. Bu durumda ani bir model değişimi ne teknik açıdan ne de idari bakımdan kolay değil. Siegler, Palantir Technologies(PLTR) ve Amazon(AMZN) gibi şirketlerin Anthropic hizmetlerini çeşitli projelerinde entegre ettiğini, bu nedenle devlet tarafının bile gerçek *entegrasyon kapsamını* tam olarak göremiyor olabileceğini ileri sürüyor. yorum: Savunma ekosistemine bir kez giren frontier modeller, dolaylı bağlantılar nedeniyle “sessiz standart” haline gelebiliyor.
Siegler, *ulusal güvenlik* veya kamu yönetiminin çekirdek sistemlerine ait *AI modellerini* değiştirme kararının, özel sektördeki model güncellemeleriyle kıyaslanamayacak kadar hassas olduğuna dikkat çekiyor. Ona göre asıl soru şu: “Ana modeli bir anda değiştirdiğinizde, üretilen sonuçlara nasıl güveneceksiniz?” Bu nedenle kapsamlı *test* ve *doğrulama* süreçleri kritik hale geliyor.
Özellikle askeri ve istihbarat alanında *hata maliyeti* çok yüksek. Bir *yapay zeka modeli* aynı soruya koşullara göre bambaşka yanıtlar üretebilir ya da verideki *önyargıları* pekiştirerek belirli sonuçları olduğundan fazla öne çıkarabilir. Bu durumda, üst düzey karar alıcıların değerlendirmeleri sistematik biçimde çarpıtılabilir. Sonuçta *uygulama hızı* kadar, belki de ondan daha fazla, *doğrulama protokolleri* belirleyici oluyor. Ancak bu süreç uzadıkça, tipik kamu ihale dinamikleri gereği *sözleşme*, *bütçe* ve *denetim* riskleri de aynı anda büyüyor.
Siegler’e göre yaşananları yalnızca bir *etik çatışma* hikayesi olarak okumak yetersiz. ABD hükümetinin, Anthropic ile yaşanan durumu müzakerede bir tür *“pazarlık kozu” (leverage)* olarak kullanmış olabileceği ihtimalini de masaya koyuyor. Büyük güçlerin hükümetleri ile önde gelen *teknoloji şirketleri* arasında sık sık görülen güç mücadelesinin, bu dosyada da perde arkasında rol oynayabileceğini savunuyor.
Öne çıkan bir diğer unsur ise *kurumsal kültür çatışması*. Siegler, Anthropic yönetiminin değerleri ile ABD savunma bürokrasisinin (ifadesiyle “Department of War”) önceliklerinin taban tabana zıt olduğunu öne sürüyor. Anthropic’in sözleşmeye, Savunma Bakanlığı çalışanlarının belirli *açık veri tabanlarına* erişimini sınırlayan bir madde ekletmek istemesi bu duruma örnek olarak gösteriliyor. Devlet kanadından bakıldığında bu tür şartlar ‘aşırı kısıtlama’ gibi görünebilirken, şirket açısından *asgari güvenlik önlemi* olarak görülüyor. yorum: Aynı cümle, bir taraf için ulusal güvenlik tehdidi, diğer taraf için kullanıcı haklarını koruyan fren mekanizması anlamına gelebiliyor.
ABD kamu ihalelerinde sözleşme süreçleri çoğu zaman *hukuk ekipleri* arasında adeta bir ‘*ifade savaşı*’na dönüşebiliyor. Siegler, birçok anlaşmazlığın “taraf avukatlarının, müşterilerini maksimum düzeyde korumaya çalışırken birbirlerini bloke etmesinden” kaynaklandığını hatırlatıyor. Böyle bir ortamda teknik konuların önüne; tek bir cümlenin yorumu, *sorumluluk dağılımı* ve olası *denetimlerde* nasıl savunulacağı gibi başlıklar geçiyor. Bu da karmaşık *AI sözleşmeleri*ni tıkayan temel tetikleyici olabiliyor.
Sonuç olarak bu iptal, *frontier AI* teknolojilerinin ulusal düzeydeki kritik sistemlere doğrudan ve sorunsuz biçimde aktarılmadığını bir kez daha ortaya koyuyor. *Yapay zeka* ulusal güvenlik alanına girdikçe, *etik*, *doğrulama*, *hukuk* ve *kamu ihalesi* süreçlerinin iç içe geçtiği karmaşık bir denklem oluşuyor. Bu bileşenlerden biri dahi uyumsuz olduğunda, en stratejik görülen projeler bile durabiliyor. Piyasa aktörleri ise bir yandan Pentagon’un *AI entegrasyon hızının* gerçekten artıp artmayacağını, diğer yandan da ‘*büyük ölçekli gözetim*’ tartışması gibi toplumsal itirazların bu hız üzerinde yeni bir *sınır çizgisi* oluşturup oluşturmayacağını yakından izliyor.
Yorum 0