AI(인공지능) savaş alanına girdikçe ‘etik’ de doğrudan bir teknoloji rekabeti unsuru haline geliyor. Anthropic’in üretken yapay zekâ modeli ‘Claude(Claude)’un, ABD ordusunun üst düzey bir operasyonunda kullanıldığına dair iddialar gündeme gelirken, savunma sanayii ve istihbarat kurumlarıyla ‘büyük teknoloji’ şirketleri arasındaki ilişki yeniden mercek altına alınıyor.
Margins’ın ortak kurucusu ve bülten yazarı Ranjan Roy(Ranjan Roy), Anthropic’in aracı Claude’un, ‘Nicolás Maduro(Nicolás Maduro) Venezuela eski devlet başkanını yakalamaya yönelik ABD operasyonunda’ kullanıldığını aktardı. Roy’a göre Claude, uydu görüntüleri gibi farklı bilgi kaynaklarını ‘sentez(synthesis)’ etmek için devreye alınmıştı ve bu süreçte operasyon ekibine karar desteği sağladı.
Verilen mesaj net. Askerî ve istihbarat operasyonlarında yapay zekâ artık laboratuvar demosu değil. Görüntü analizi, özet çıkarma, durum farkındalığı gibi alanlarda ‘sahada kullanılan araç’ konumuna hızla yerleşiyor. Özellikle Palantir(Palantir) gibi veri bütünleştirme platformlarıyla birlikte çalıştığında, geniş ölçekli istihbarat-gözetleme-keşif(ISR) verisini tek ekranda birleştirip komutanların karar hızını artıran sistemlere dönüştüğü yorumları öne çıkıyor.
Roy, buna rağmen Anthropic ile Pentagon(ABD Savunma Bakanlığı) arasındaki işbirliğinin dışarıdan görüldüğü kadar ‘derin bir ittifak’ olmayabileceğini vurguluyor. Ona göre bu ilişkilerde ‘gösteri(show)’ ve ‘konumlanma(positioning)’ unsuru az değil. Teknoloji şirketleri ve devlet kurumları arasındaki bağlar çoğu zaman gerçek saha kullanımı ile pazarlama anlatısı arasında gidip geliyor ‘yorum’.
Bu bakış açısı, son dönemdeki AI trendleriyle de uyumlu. Üretken yapay zekâ şirketleri için savunma ve istihbarat kurumları ‘yeni gelir kapısı’ haline gelirken, aynı anda çalışanların değerleri, dış imaj ve ticari müşteri tabanı da yönetilmek zorunda. Yani işbirliğinin gerçek içeriği, *sözleşme* ve *saha konuşlandırması*nda belirlenirken, piyasanın algısı çoğu zaman ‘kim devlete daha çok entegre oldu?’ sorusu üzerinden şekilleniyor.
Roy’a göre asıl gerilim noktası belirli bir özelliğin ya da model performansının ötesinde, ‘kurumsal kültür farkı’. Ordu, görev odaklı çalışıyor, hızlı karar alıyor ve sistemleri baştan risk varsayımıyla işletiyor. Yapay zekâ şirketleri ise sorumluluk, yönetişim(governance) ve ‘marka riski’ gibi konuları öne çıkarıyor; “bu teknoloji yarın bambaşka bir amaç için kullanılırsa ne olur?” türü senaryolar üzerinden kendi içinde uzun tartışmalara giriyor.
Sonuçta her iki taraf da ‘AI’ diyor ama ordunun önceliği ‘operasyonel verimlilik’, teknoloji şirketlerinin önceliği ise ‘etik meşruiyet’ ve ‘kontrol edilebilirlik’. Bu uçurum kapanmadığı sürece, imzalanmış sözleşmeler bulunsa bile pratikte işbirliklerinin sık sık tıkanması kaçınılmaz görülüyor.
Tartışmanın en hararetli kısmı, söz konusu operasyonda AI kullanımının “büyük ölçüde abartıldığı” iddiası. Roy, asıl kilit rolü Palantir’in oynadığını, Claude gibi üretken modellerin ise hikâyede olduğundan büyük gösterilmiş olabileceğini savunuyor. Bu nokta özellikle yatırımcı ve piyasa açısından kritik bir uyarı niteliğinde. ‘Yapay zekâ savaşı değiştirdi’ ifadesi kulağa çok çarpıcı gelse de, sahada çoğu zaman ana yükü veri hatları, güvenlik ağları, sensör sistemleri ve geleneksel analiz araçları çekiyor. Üretken AI çoğunlukla bunların üstünde rapor taslağı çıkarma, metin özetleme, arama ve sınıflama gibi işlevlerle yer alıyor. Yani ‘etkisi yok’ denemez ama savaş alanının kaderini tek başına değiştiren bir ‘sihirli anahtar’ olarak görmek, gerçekçi olmaktan uzak ‘yorum’.
AI’nin savunma alanında yaygınlaşmasıyla birlikte, ‘etik’ tartışmanın tam göbeğine oturuyor. Roy, *otonom silah sistemleri(autonomous warfare)* ve *yapay zekâ destekli kitlesel gözetleme(mass surveillance)* konusunda net kırmızı çizgiler çizilmesi gerektiğini savunuyor. Teknoloji ne kadar güçlenirse, ‘kontrol edilebilirlik’ varsayımının çöktüğü anda ortaya çıkacak maliyet de o kadar katlanıyor. Özellikle ‘otonom ajanlar(autonomous agents)’ ile silah sistemleri, iç güvenlik ya da sınır gözetimi gibi alanların birleşmesi durumunda, yanlış karar ya da arıza kaynaklı zararların geri alınması neredeyse imkânsız hale gelebilir. Roy’un “Waymo(Waymo)’nun eline silah vermek istemem” benzetmesi, sivil otonom sürüş teknolojisi bile devletin zor kullanma tekeliyle birleştiğinde ciddi riskler doğurabileceğine işaret ediyor.
Bu çerçevede Anthropic’in ‘etik’ vurgusu hem bir savunma kalkanı hem de bir rekabet aracı olarak öne çıkıyor. Roy, şirketin ABD hükümetinin gizli ağlarında modellerini erken aşamada konumlandırmasını hatırlatarak bunu “biz ‘iyi taraftayız’ demek açısından altın değerinde(gold)” diye niteliyor. Yani Anthropic, savunma talebini tamamen reddetmeden, ‘etik AI şirketi’ konumunu güçlendirmeye çalışıyor. Böylece olası düzenleyici baskılara ve kamuoyu dalgalanmalarına karşı fazladan koruma alanı açıyor. Bu tablo, gelecekte AI şirketlerinin yalnızca model performanslarıyla değil, birlikte çalıştıkları müşterilerin niteliği ve kamuya açık ‘yasak kullanım çizgileri’ üzerinden de değerlendirileceğine işaret ediyor.
Piyasanın bu alana bakarken kaçırmaması gereken iki kritik nokta öne çıkıyor: *kontrol edilebilirlik* ve *anlatı şişmesi*. Birincisi, otonom sistemlerin gerçekten kontrol altında tutulabileceğine dair ne kadar somut kanıt bulunduğu. İkincisi, sahadaki askerî kullanım örneklerinin, pazarlama ve PR amaçlı hikâyeleştirme sırasında ne ölçüde abartıldığı. AI güvenlik, gözetim ve savaş teknolojilerine daha çok nüfuz ettikçe, teknoloji şirketleri ile devlet kurumları arasındaki bağların hem daha sıkı hem de daha karmaşık hale gelmesi bekleniyor. Ancak bu süreçte ‘etik’, artık sadece bir basın bülteni başlığı değil; tasarım ilkeleri, operasyonel sınırlar ve hata durumunda kime hesap sorulacağına kadar uzanan, somut ‘yönetim’ sorunu olarak masaya geliyor.
Yorum 0