Anthropic ile ABD Savunma Bakanlığı Arasında ‘Claude’ Krizi: Tedarik Zinciri Kara Listesi Gündemde
Anthropic(앤트로픽) Üst Yöneticisi Dario Amodei(Dario Amodei), ABD Savunma Bakanlığı ile aylardır süren sert gerilim sonrası, şirketin ‘hükümet kara listesi’ tehlikesinden kaçınmak için bir tür ‘zorunlu uzlaşma’ formülünü öne çıkarmaya çalışıyor. Görüşmelerin tamamen kopması halinde, Anthropic’in ABD hükümeti nezdinde ‘tedarik zinciri riski’ etiketiyle damgalanarak savunma sözleşmelerinden fiilen dışlanabileceği konuşuluyor.
Financial Times(FT) haberine göre Amodei, son günlerde Savunma Bakanlığı araştırma ve mühendislikten sorumlu müsteşarı Emil Michael(Emil Michael) ve diğer yetkililerle acil müzakerelere başladı. Masadaki temel başlık, ordunun Anthropic’in yapay zeka modeli Claude’a ‘hangi kapsamda ve nasıl’ erişip kullanabileceğini tanımlayan bir mutabakat taslağı. ‘Uygulanabilir bir orta yol’ bulunabilirse, ABD Savunma Bakanlığı Anthropic teknolojilerini konuşlandırmaya devam edebilecek ve şirket de ‘tedarik zinciri açısından riskli kurum’ damgasını şimdilik atlatmış olacak. Aksi senaryoda ise, mevcut savunma sözleşmelerinin kesilmesi ve büyük savunma yüklenicilerinin San Francisco merkezli bu yapay zeka şirketiyle iş yapmasının fiilen imkânsız hale gelmesi bekleniyor.
Bu sert çatışmanın başlangıç noktası, bu yılın ocak ayında ABD’nin Venezuela Devlet Başkanı Nicolas Maduro(Nicolás Maduro)’yu yakalamayı hedefleyen gizli bir operasyonuna dayanıyor. Daha sonra Anthropic çalışanlarının, Palantir(Palantir) sistem kayıtlarından operasyon sürecinde Claude’un da kullanıldığına dair işaretler bulduğu öne sürüldü. Bu kullanım biçiminin şirketin ‘kabul edilebilir kullanım politikası(‘Acceptable Use Policy’)’na aykırı olup olmadığı içeride sert tartışmalara yol açtı. ‘Şirket içi itirazlar’ ve ‘politikaya aykırı kullanım’ şüphesi, Savunma Bakanlığı ile kurulan güveni kökten sarstığı yorumlarına neden oluyor.
Savunma Bakanlığı cephesi, yapay zekânın herhangi bir ‘yasal(lawful)’ amaç doğrultusunda geniş şekilde kullanılabilmesini istiyor. Ancak Anthropic, bu kadar geniş bir ‘yasal amaç’ ifadesinin pratikte şirketin karşı çıktığı ‘büyük ölçekli gözetim(surveillance)’ dahil pek çok alana kapı açacağından kaygılı. Anthropic bugüne kadar, ‘tam otonom silahlar(fully autonomous weapons)’ ve kitlesel gözetim gibi alanlarda sıkı sınırlar getiren bir ‘AI güvenliği’ çizgisini şirket kimliğinin merkezine yerleştirmişti. ‘AI güvenliği’ni öne çıkaran bu prensip setinin, Savunma Bakanlığı’nın sahada esneklik talebiyle doğrudan çatışması, müzakereleri kısa sürede çıkmaza soktu.
FT’nin aktardığına göre Amodei, hükümetin ‘son uyarısını’ reddettikten sonra, Başkan Trump’ın federal kurumlara Anthropic teknolojilerinin kullanılmaması talimatını verdiği, Savunma Bakanı Pete Hegseth(Pete Hegseth)’in de Anthropic’i ulusal güvenlik açısından bir ‘tedarik zinciri riski’ olarak sınıflandırdığı bildirildi. Bu kararın yürürlükte kalması durumunda Anthropic, yalnızca tek bir ihaleyi kaybetmekle kalmayıp, tüm savunma ekosisteminin dışına itilebilecek. Başka bir deyişle şirket, ‘yüksek profilli bir güvenlik ortağı’ imajından, ‘riskli tedarikçi’ kategorisine hızla düşebilir.
Amodei’nin, Savunma Bakanlığı ve OpenAI(OpenAI)’nin konuyu ‘çarpıttığını’ savunduğu da belirtiliyor. Ayrıca Anthropic tarafı, şirketin rakipleri kadar ‘Trump’ı öven ve öne çıkaran’ bir çizgide olmadığını, bu yüzden de ‘kenara itilmeye’ çalışıldığı yönünde soru işaretleri dile getiriyor. ‘Teknoloji politikası’ tartışmasının doğrudan iç siyasetin güç dengeleriyle birleşmesi halinde, yapay zeka şirketleri arasındaki devlet ihalesi rekabetinin çok daha sert ve kişiselleşmiş bir zemine kayabileceği konuşuluyor.
Anthropic, OpenAI, Google(Google) ve xAI ile birlikte, ordu kullanımına dönük ‘ajan benzeri yapay zeka(agentic AI)’ sistemlerinin geliştirilmesini hedefleyen ve toplamda 200 milyon dolara kadar çıkabilen ABD Savunma Bakanlığı sözleşmesini kazanmıştı. ‘Agentic AI’ kavramı, yalnızca soru-cevap verilen sistemlerden farklı olarak, ‘hedef belirleyebilen, bu hedefe giden görevleri parçalara ayırıp kendi başına icra edebilen’ türden yapay zekaları anlatıyor. Askeri bağlamda bu tip sistemlerin istihbarat analizi, operasyon planlama, lojistik ve tedarik yönetimi gibi kritik alanlarda devreye alınabileceği değerlendiriliyor.
Piyasadaki genel beklenti, Anthropic’in bu ‘köprübaşı’nı kaybetmesi halinde hem büyüme ivmesinin hem de dışarıya dönük güvenilirlik algısının ciddi baskı altında kalacağı yönünde. Şirket bugüne kadar ‘güvenlik odaklı yaklaşımını’ başlıca fark yaratma noktası olarak pazarlamış, kendisini ‘AI güvenliği lideri’ olarak konumlandırmaya çalışmıştı. Savunma Bakanlığı ile süren bu çatışmanın uzaması, özellikle büyük ölçekli müşteriler (hükümet kurumları ve dev şirketler) nezdinde, ‘istikrarlı ve uzun vadeli ortak’ imajını zedeleyebilir.
Buna karşın bu kriz, yapay zeka sektörünün geneline yayılmaya aday temel bir gerçeği de açığa çıkarıyor: ‘Ulusal güvenlik’ talebi arttıkça hükümetler ‘daha geniş takdir yetkisi’ talep ediyor, yapay zeka şirketleri ise kendi politika ve etik sınırlarını korumakta ısrar ediyor. Bu gerilim çizgisi, önümüzdeki yıllarda defalarca sahneye çıkabilir. Anthropic ile ABD Savunma Bakanlığı’nın ‘hangi ifadeler ve hangi denetim mekanizmaları’ üzerinden orta noktada buluşacağı, yalnızca bu şirketin değil, genel olarak ‘askeri amaçlı yapay zeka’ pazarının temel kurallarını şekillendirebilecek bir ‘örnek vaka’ olma niteliği taşıyor.
Yorum 0