Trump yönetiminin yapay zeka(AI) girişimi Anthropic’i ‘tedarik zinciri riski(supply chain risk)’ olarak sınıflandırması sonrası, şirketin savunma alanındaki işleri fiilen durma noktasına geldi ve Anthropic bu nedenle ABD Savunma Bakanlığı(DoD) dahil federal kurumlara karşı dava açtı. Anthropic, bu sınıflandırmanın hukuki temeli zayıf bir ‘fiili kara liste’ olduğunu savunuyor ve savunma ortaklıklarını ile müşterilerini korumak için bunun *zorunlu bir adım* olduğunu iddia ediyor.
Anthropic’e göre Washington’un son hamleleri, savunma sanayii şirketleriyle yapılan anlaşmaları sınırlandırdı ve savunma odaklı tedarik süreçlerini durdurdu. Şirket, bu süreçte Pentagon ile yürüttüğü ve büyüklüğü en fazla 200 milyon dolar(yerel kurla yaklaşık 2,95 milyar won) olarak tahmin edilen sözleşmenin de tehlikeye girdiğini açıkladı. Bu sınıflandırmanın, Anthropic’in AI sistemlerinin ‘ABD vatandaşlarının geniş çaplı gözetimi’ ya da ‘tamamen otonom ölümcül silahlar’ için kullanılmasına izin vermeme yönündeki çizgisini koruması ve bunun üzerine hükümetle yürütülen müzakerelerin çökmesi sonrasında geldiği belirtiliyor.
Savunma Bakanlığı cephesi ise Anthropic’in AI modellerinin ‘tüm yasal amaçlar(all lawful purposes)’ için kullanılabilir olması gerektiği görüşünde ısrarcı. Hükümetin talep ettiği kullanım kapsamı ile şirketin koyduğu kullanım kısıtları doğrudan çatışırken, özel sektörde geliştirilen yapay zeka teknolojileri ile ulusal güvenlik ihtiyaçları arasındaki sınırlar yeniden tartışmanın odağına yerleşti.
Trump yönetiminin bu hamlesi, sivil AI şirketlerinin etik ve güvenlik ‘koruma bariyerleri’ ile devletin geniş kapsamlı kullanım talepleri arasındaki gerilimin nasıl çözüleceğine dair önemli bir örnek dosya oluşturuyor. Eğer ‘tedarik zinciri riski’ gibi etiketler savunma ihalelerinde fiili tasfiye aracı haline gelirse, uzun vadede hem AI sektörünün iş sürekliliği hem de büyük teknoloji şirketleriyle kurulan ortaklık yapıları üzerinde ciddi etkiler yaratabileceği yorum yapılıyor.
Yorum 0